Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 965 résultats.
Offre premium
CDI

Offre d'emploi
Tech Lead Databricks

KOLABS Group
Publiée le
Big Data
CI/CD
Databricks

Lyon, Auvergne-Rhône-Alpes

Nous recherchons un Tech Lead Databricks pour rejoindre l’équipe Data en pleine expansion de notre client, leader dans le domaine de la maitrise des risques. Vous aurez la responsabilité d’assurer la conception et la mise en œuvre de solutions de data engineering et data science sur la plateforme Databricks, tout en assurant le leadership technique pour une équipe de développeurs et data engineers. MISSIONS Leadership technique Coacher une équipe de data engineers, data scientists, et développeurs travaillant sur la plateforme Databricks Mettre en place des bonnes pratiques de développement et veiller à la qualité du code (revues de code, tests unitaires) Conception et architecture Concevoir et implémenter des solutions techniques sur Databricks pour répondre aux besoins des équipes métiers (data analytics, data science) Définir des architectures évolutives et performantes pour l'ingestion, le traitement et l’analyse des données Participer à la modélisation de données Travailler en étroite collaboration avec les architectes, les équipes applicatives et équipes métiers pour définir des solutions adaptées Développement et intégration Développer des pipelines de données et des workflows de traitement de données dans Databricks Assurer l'intégration des solutions avec d'autres outils et systèmes (bases de données, systèmes de stockage, outils de BI) Participer au développement des tableaux de bord sous Power BI Optimisation des performances Identifier et résoudre les problèmes de performance dans les flux de données et l'architecture Mettre en place des mécanismes d'optimisation des coûts liés à l’utilisation de la plateforme Databricks Veille technologique et innovation Assurer une veille sur les nouvelles technologies et pratiques dans l’écosystème Big Data et Databricks Proposer des améliorations continues pour augmenter l’efficacité des processus et la qualité des données Accompagner et former les équipes IT aux bonnes pratiques ITIL

Freelance

Mission freelance
Engineering Manager / Manageur DATA/IA (F/H)

ODHCOM - FREELANCEREPUBLIK
Publiée le
Big Data
Data management

12 mois
400-560 €
Paris, France

Contexte Dans un contexte de forte croissance des usages numériques et d’accélération de la transformation digitale , les données et l’intelligence artificielle constituent des leviers stratégiques pour améliorer l’expérience client, optimiser les opérations et soutenir l’innovation. La montée en puissance de nos plateformes data, combinée à l’émergence de nouvelles technologies (cloud data platforms, big data, IA générative, MLOps), exige un pilotage technique et organisationnel solide pour garantir la qualité, la robustesse et la scalabilité de nos solutions. Afin d’accompagner cette dynamique, la société souhaite renforcer son organisation en s’appuyant sur un prestataire disposant d’une forte expertise en management et delivery d’équipes Data & IA, capable de piloter l’ensemble du cycle de vie de nos produits data/IA, de soutenir la montée en compétence des équipes, et d’assurer la cohérence technique et opérationnelle de notre écosystème data. Livrables Activités & responsabilités 1. Constitution & maturité des équipes Data & IA - Recruter, staffer et faire monter en compétence les équipes Data/IA. - Assurer un équilibre entre roadmap produit et ressources Tech Data/IA. - Garantir l’adoption des bonnes pratiques (clean code, sécurité, data quality, éthique de l’IA, observabilité). 2. Management de proximité - Encadrer les développements Data & IA et promouvoir une culture de feedback. - Gérer la motivation, la cohésion et la montée en compétence des équipes. - Définir les objectifs individuels et collectifs, et suivre leur atteinte. 3. Delivery & Production - Piloter la qualité du delivery des solutions Data & IA (délais, coûts, engagements). - Mettre en place des standards et process de delivery adaptés (MLOps, CI/CD pour modèles IA, monitoring des données et modèles). 4. Collaboration avec les équipes Produits & Métier - Aligner les équipes Data/IA avec les enjeux produits et métiers. - Travailler avec les responsables produit, data owners et business stakeholders pour transformer les besoins en solutions concrètes. 5. Contribution technique - Participer à la définition des solutions Data & IA en gardant un rôle de facilitateur technique (sans être sur le chemin critique). - Challenger les choix technologiques (data architecture, frameworks IA, cloud) et favoriser l’innovation. - Développer une vision long terme sur la gouvernance et la stratégie Data & IA. ## Interactions - Avec l’écosystème Tech et Produit : pour le pilotage des équipes et le delivery des projets Data & IA. - Avec les équipes Métier : pour comprendre les besoins et maximiser la valeur business des cas d’usage IA. - Avec les RH / Managers RH : pour le suivi des collaborateurs (formation, évolution, mobilité). Description - Garantir la cohérence technique et la qualité des produits Data & IA en collaboration avec les experts et les équipes de delivery. - Encadrer et faire grandir les équipes de développement Data/IA (DE , travailler avec des DS, MLOps, etc.) pour répondre aux enjeux business et techniques. - Définir et piloter la trajectoire de delivery (qualité, respect des engagements) pour assurer la mise en production fluide et sécurisée des solutions Data & IA. - Maintenir et développer les compétences clés des équipes dans un contexte technologique en forte évolution (cloud data platforms, IA générative, big data, MLOps). - Assurer la qualité de service en production des solutions Data & IA (robustesse, performance, monitoring, observabilité).

CDI
Freelance

Offre d'emploi
DATA SCIENTIST à Nantes

Accetal
Publiée le
Data science

6 mois
40k-45k €
400-550 €
Nantes, Pays de la Loire

Prestation à Nantes. Le bénéficiaire souhaite une prestation d'accompagnement sur Nantes, dans le cadre de son programme d’accélération de l’IA. Contexte : Dans le cadre du chantier Knowledge Management (KM), une base de connaissance doit être constituée à partir de documents non structurés (PDF, Word, HTML). Cette base servira à formaliser la connaissance sous une forme agnostique des usages, en vue d'une réutilisation large et durable. Objectif de la mission : Concevoir un pipeline d'extraction, nettoyage et structuration de la connaissance textuelle issue de documents variés, en l'organisant dans un format pivot enrichi et exploitable. Activités principales : Extraction du texte depuis des fichiers PDF, Word, HTML via des librairies adaptées Nettoyage et normalisation des contenus (suppression de bruit, OCR si nécessaire) Segmentation des textes en unités de connaissance structurées (sections, blocs) Enrichissement des unités avec des métadonnées (source, date, thème, typologie) Conception du format pivot (Markdown enrichi ou JSON) standardisé Documentation le format et les choix de structuration Collaboration avec l’équipe KM pour affiner la structuration Mise en place un script ou pipeline réutilisable pour de nouveaux documents Bonne connaissance de Domino Data Lab (optionnel)

Freelance

Mission freelance
ARCHITECTE DATA

CAT-AMANIA
Publiée le
Data governance
Data quality

12 mois
400-550 €
Toulouse, Occitanie

Dans le cadre d'un projet pour l'un de nos clients dans le secteur de la monétique, vous interviendrez au sein de l’équipe d’architecture, l’architecte data aura pour mission de concevoir et mettre en œuvre la gouvernance des données de la solution applicative. L'objectif sera d'accompagner notre client sur l'étude, l'aide à la gouvernance Data, et la mise en œuvre. Principales activités Etude de l’existant de la solution Proposition d’une gouvernance data utile et efficace en cohérence avec l’organisation et la structure de la société Définition de l’architecture data de la solution applicative Collaboration avec les équipes métiers, techniques et sécurité pour garantir l’alignement des pratiques data. Définition ou proposition d’évolution des référentiels de données, dictionnaires de données et règles de gestion. Participation à la mise en place d’outils de gouvernance (Data Catalog, Data Quality, MDM, etc.). Accompagner les équipes dans l’adoption des bonnes pratiques de gestion des données. Assurer une veille technologique et réglementaire sur les sujets data.

Offre premium
CDI
Freelance

Offre d'emploi
Data Engineer

HN SERVICES
Publiée le
Apache Kafka
Apache Spark
CI/CD

6 mois
40k-65k €
400-550 €
Paris, France

Au sein de la Data Platform, le renfort devra intervenir en tant qu'expert sur les sujets Kafka, KStreams, K8S, Spark, Java de la squad Data Value (connaissance client, collecte des événements digitaux...). Expertise technique confirmé sur Kafka, Kstreams, K8s, streaming de données Développer en Spark/Kafka des traitements de transformation et de production de données Designer des chaines optimisées CI/CD en collaboration avec les équipes, DEVOPS, et CAGIP Assurer et garantir la production d'un code de qualité : robuste, maintenable et évolutif Participer à l'amélioration continue et à la revue de code

Offre premium
Freelance

Mission freelance
Data & AI Product Manager – Lille

NaxoTech
Publiée le
AI
Data management
Machine Learning

1 an
420-750 €
Lille, Hauts-de-France

Nous recherchons un Data & AI Product Manager expérimenté, capable de piloter des projets d’Intelligence Artificielle ambitieux et stratégiques. Votre rôle sera de transformer les besoins métiers en solutions concrètes basées sur l’IA : modèles prédictifs à grande échelle, systèmes de recommandation, outils d’aide à la décision et produits data innovants. Vous animerez une équipe de Data Scientists, Machine Learning Engineers et BI Engineers, et serez le garant de la vision produit comme de la qualité des livrables. Votre mission consistera à comprendre en profondeur les enjeux métiers, co-concevoir des solutions IA adaptées, prioriser la roadmap, et accompagner les phases de conception, déploiement et évolution. Vous jouerez un rôle clé dans la création de valeur par l’IA, au service d’une entreprise engagée dans la Tech4Good. Début des entretiens le 25/08.

CDI

Offre d'emploi
Data Governance Manager

UCASE CONSULTING
Publiée le
Data governance
Data management

La Défense, Île-de-France

Bonjour à tous :) Nous recrutons un(e) Consultant(e) Data Governance pour accompagner l’un de nos clients du secteur Banque/Finance dans la mise à jour stratégique de sa politique de gouvernance des données ! Vous interviendrez au sein du département Data Office, dans un contexte de transformation du cadre de gouvernance à l’échelle du groupe. La mission : Vous serez amené(e) à : • Analyser les écarts entre le framework de gouvernance du client et celui du groupe. • Contribuer à la refonte complète de la politique de gouvernance des données. • Rédiger les chapitres de la politique de manière claire et opérationnelle. • Élaborer les procédures associées aux différents volets de la gouvernance. • Traduire certains documents du framework en français. • Participer au plan de communication interne autour de la mise à jour. • Travailler sur l’opérationnalisation du nouveau cadre de gouvernance. • Définir les matrices RACI entre les parties prenantes (DPO, CISO, DCIO…) Vous êtes en CDI et dispo très rapidement idéalement sous une semaine ? N'hésitez pas à envoyer votre CV !

Freelance

Mission freelance
Expert Data Gouvernance

MLMCONSEIL
Publiée le
Data governance

6 mois
150-650 €
Paris, France

Pour le besoin de mon client, je suis à la recherche d'un Expert Data Gouvernance pour Définir des processus de gouvernance; Mise en place des rôles data; Cadrage centralisé/décentralisé; Conduite des comités .. .. ... .. .. ... ... ... .. .. .. ... .. .. ... ... ... .. .. .. ... .. .. ... ... ... .. .. .. ... .. .. ... ... ... .. .. .. ... .. .. ... ... ... .. .. .. ... .. .. ... ... ... .. .. .. ... .. .. ... ... ... .. .. .. ... .. .. ... ... ... .. .. .. ... .. .. ... ... ... ..

Freelance

Mission freelance
Ops Data Lake - Vitrolles cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o

WorldWide People
Publiée le
Data Lake

6 mois
400-500 €
Vitrolles, Provence-Alpes-Côte d'Azur

Ops Data Lake Ops Data Lake - Vitrolles cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

CDI
Freelance

Offre d'emploi
Tech Lead expérimenté Cash Management

Actiis IT
Publiée le
Apache Spark
Big Data
Hadoop

12 mois
Île-de-France, France

Vous intégrerez les équipes du Cash Management Services (CMS), en tant que Technical Lead expérimenté Vous aurez pour missions principales de : Coordonner et animer une équipe de développeurs Garantir la qualité des développements et l’exploitabilité des applications Gérer la relation avec l’équipe projet, avec les architectes, avec d’autres cellules de développeur, avec CA-GIP Encadrez les membres de l’équipe, et savoir les coacher sur un sujet technique et/ou méthodologique que vous maîtrisez Assurer le support des composants développés et du périmètre en charge Veillez à la cohérence des solutions dans l’urbanisation CA-CIB en prenant en compte la sécurité et la performance Participer à la définition des solutions techniques Participer et être à l’origine d’améliorations régulières du service Collaboration étroite avec les analystes, les designers et les équipes en charge du support et des infrastructures Participer à la conception des solutions techniques adaptées et à la mise en place de nouvelles architectures (nouvelles architectures (API, microservices, Cloud) Assurer le développement et la maintenance évolutive et corrective des applications Garantir que les contraintes d’assurance qualité, de performance, de stabilité, de maintenabilité et d’évolutivité sont respectées Respecter les standards de développement mis en place (CI/CD, DDD) et promouvoir les pratiques de tests systématiques (BDD/TDD) Assurer la rédaction des documents techniques et projets.

CDI
Freelance

Offre d'emploi
Data lake protection

SARIEL
Publiée le
Data Lake
Splunk

3 ans
40k-60k €
400-550 €
Toulouse, Occitanie

Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Nous recherchons sur Toulouse le profil suivant : Intégrer les solutions de Data Leak Protection (DLP) en établissement Contrainte forte du projet - Les livrables sont Solutions et Règles DLP Analyse des évènements générés Rapport/Tableaux de bord de l'activité Compétences techniques Outils Data Leak Prevention - Confirmé - Impératif Splunk - Confirmé - Important Développement / Scripting - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif) Description détaillée Le département Cloud, Application, Data et Expertise Sécurité de la Direction Sécurité de BPCE-IT recherche pour le service Data Protection un expert en Data Leak Prevention de formation ingénieur pour l'accompagner dans sa mission de protection des données sensibles Au sein d'une équipe de plusieurs experts, la mission s'inscrira dans le cadre d'un projet visant à prévenir de la fuite de données. Les principales activités seront les suivantes: - Capture des besoins de protection des données sensibles métiers - Définition, paramétrages et amélioration des règles DLP - Améliorer les solutions de détections - Participer aux choix et à la mise en oeuvre des nouveaux outils - Analyse des évènement générées et optimisation des faux positifs - Suivi des rémédiations - Définition, suivi des indicateurs de l'activités - Création d'un tableau de bord Pour remplir cette mission les compétences suivantes sont demandées: - Compétences fonctionnelles et techniques sur les sujets DLP - Connaissances des outils Trellix DLP, Netskope, Splunk - Compétence de développement (PowerApp, PowerBI, Python) - Culture en SSI/Cybersécurité et en particulier sur les risques associés aux fuites d'information - Connaissances techniques générales Lieu de réalisation Toulouse Déplacement à prévoir oui - Paris, Lyon Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

Freelance

Mission freelance
  Tech lead Big data Hadoop , Spark, Hive Kafka / 550 e par j

BI SOLUTIONS
Publiée le
Big Data
PySpark

2 ans
400-550 €
Île-de-France, France

Tech lead Big data Hadoop , Spark, Hive Kafka / 550 e par j Référent technique Big Data, vous assurez le lead technique de l’équipe de développeurs, avec en responsabilité, la conception et la mise en œuvre des solution Big Data, ainsi que le pilotage technique de projets. étude et prise en compte des besoins de traitement de la data, gestion des priorités et de la cohérence des besoins, choix des outils et solutions conception et mise en œuvre des architectures de données évolutives et performantes, sécurisées et résilientes direction et encadrement technique d’une équipe de data ingénieurs composée d’intervenants externes : suivi, support, adoption des bonnes pratiques de développement sécurisé Maîtrise des technologies du Big Data telles que Hadoop, Spark, Hive/Impala, Kafka - Excellentes compétences en programmation, maitrisant des langages tels que : Python, Scala ou Java, - Capacité à résoudre des problématiques complexes avec un esprit de synthèse et une pensée analytique - Bonne expérience dans la conception et la mise en œuvre de pipelines de données fiables et scalables, en utilisant des frameworks tels que Spark, Oozie, Airflow … - Bonnes compétences en mathématiques et statistiques - Connaissances monétiques 550 e par j

Freelance
CDI

Offre d'emploi
Développeur backend Java Core Confirmé ou Sénior - Multithreading calculs distribués- Appache Ignite

Digistrat consulting
Publiée le
Big Data
DevOps
Java

3 ans
50k-70k €
500-600 €
Paris, France

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins

CDI
Freelance

Offre d'emploi
INGENIEUR DE PRODUCTION OPCON

Craftman data
Publiée le
Administration Windows
Microsoft SQL Server
OpCon

6 mois
Île-de-France, France

Vos missions : Sur la partie « RUN » Gérer le cycle de vie complet de l'infrastructure liée aux applications. En assurant : Le support technique N3 sur les applications de la BI, pour diminuer backlog des incidents, Apporter un soutien aux études et infogérance pour les incidents majeurs S’interfacer avec les équipes DBA Connaissance en language de BDD( SQL) Administrer l’ordonnanceur OpCoN et automatiser les traitements Supervision et monitoring Rédaction de scriptshell et .bat Intégrer les nouvelles applications, traiter, mettre à jour et contrôler l’exploitabilité sur la production Définir les stratégies de sécurité pour les utilisateurs et groupes AD. Gérer les droits d'accès à l’Active Directory : Créer user, groupe d'accès Gérer les serveurs (physiques et virtuels) Windows Conduire les tests de PRI avec le SME (inde) Participer à l’intégration sur les envi hors prod et mettre en Œuvre dans les environnements de production, les traitements techniques et fonctionnels. Accompagner les chefs projets Technique en tant que spécialiste de la production Intégration et déploiement de projets Industrialiser Piloter l’externalisation partielle des activités de production Transformation : Accompagner le “move to run “ Vérifier et mettre à jour tous les documents Ø Force de proposition d’amélioration Environnement : OS : VCenter. Windows server, 2008, 2012, 2016, 2019. Windows 7/10. Red Hat 6, 7, Ordonnanceur : OpCON 19, 20 . DB : Microsoft SQL server management, SQL Server. IBM Cognos, Datamanager. Cloud Snowflake, AWS. Reporting Splunk, Dynatrace, Turbonomic, SSMS. Supervision : Service NAV supervision Profils : Maitrisé : OS : Windows 2008->2019, Red Hat 6/7 Ordonnanceur : OpCON 19,20 / Control M Db : Microsoft SQL server management, SQL Server. IBM Cognos, SSMS Supervision : Service NAV supervision Langue : Anglais fluent (écrit et oral) Process : ITIL Autres competences ++: Power BI, Gammasoft, Datamanager. Cloud Snowflake, AWS. Reporting Splunk, Dynatrace, Turbonomic, SSMS,TMOne

Freelance
CDI

Offre d'emploi
Chef de projet SIH (Systèmes d’Information Hospitaliers)-Clermont-Ferrand (H/F)

RIDCHA DATA
Publiée le
Coordination
Pilotage

3 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes

Contexte Notre client final, acteur du secteur hospitalier, recherche un Chef de projet SIH afin d’accompagner la mise en œuvre et le pilotage de solutions informatiques hospitalières. La mission consiste à conduire les études d’opportunité, formaliser les besoins, piloter le choix et l’intégration de solutions SIH, et assurer la conduite du changement auprès des équipes métiers et IT. Missions principales 📌 Étude & cadrage Réaliser l’étude d’opportunité et l’expression des besoins Rédiger le cahier des charges et piloter le choix de solutions adaptées 📌 Pilotage projet Cadrer et préparer la mise en œuvre de la solution retenue Coordonner les équipes IT et métiers Assurer la conduite du changement et l’accompagnement des utilisateurs Animer les comités de pilotage (préparation des supports, rédaction des comptes rendus) 📌 Déploiement & suivi Suivre l’avancement, les ressources et le budget Encadrer les phases de recette et de mise en production Garantir la qualité et la conformité des livrables 📦 Livrables attendus Cahier des charges détaillé Étude d’opportunité et expression des besoins Support au choix de la solution Comptes rendus et reporting projet Mise en production validée 🛠️ Compétences recherchées SIH (GAP / DPI / GEF) – Confirmé – Impératif Data / IA – Confirmé – Souhaitable Pilotage projet, coordination IT/métier Conduite du changement et accompagnement utilisateurs

Freelance

Mission freelance
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o

WorldWide People
Publiée le
Data Lake

6 mois
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Ops Data Lake Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

965 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous