Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 421 résultats.
Offre d'emploi
Data Ingénieur
Les Filles et les Garçons de la Tech
Publiée le
AWS Cloud
IA
Kubernetes
6 mois
40k-51k €
450-600 €
Paris, France
Le ou la Data Ingénieur·e IA conçoit, met en place et opère les pipelines de données qui alimentent les cas d’usage d’intelligence artificielle (machine learning, LLM, analytics avancée). Le poste vise à garantir la disponibilité, la qualité, la traçabilité et la performance des données de bout en bout, depuis les sources (SI, APIs, fichiers, logs) jusqu’aux environnements d’entraînement et de production. En lien étroit avec les équipes Data Science, Produit, DevOps et Sécurité, la personne contribue à industrialiser les flux et à fiabiliser l’écosystème data. Livrables Pipelines de données documentés et automatisés, avec contrôles de qualité (validation, déduplication, gestion des valeurs manquantes) et mécanismes de reprise sur incident. Jeux de données prêts pour l’IA (datasets d’entraînement/validation, tables de features, embeddings si nécessaire) et interfaces d’accès stables pour les équipes consommatrices. Tableaux de bord de supervision (fraîcheur, volumes, erreurs, coûts), documentation opérationnelle (runbooks) et contribution aux standards (naming, conventions, modèles) de la plateforme.
Mission freelance
consultant data
LK TECHNOLOGY
Publiée le
Microsoft Excel
Microsoft Power BI
SQL
4 mois
Hauts-de-Seine, France
Les principales tâches porteront sur le développement de rapport BI et d'analyses : Création de nouveaux rapports BI complexes: de la consolidation du besoin auprès du métier à la livraison (incluant la recette) Extension de rapports existants sur de nouveaux périmètres. L'amélioration/ optimisation de rapports existants: optimisation de la performance technique et amélioration visuelle pour une meilleure prise en main par les utilisateurs De manière ponctuelle, développement d'analyses ou extractions et consolidations de fichiers one-shot ad hoc en support aux équipes de business analystes à destination du marketing ou des équipes de communication
Mission freelance
DATA ENGINEER GCP
PARTECK INGENIERIE
Publiée le
BigQuery
DBT
Docker
6 mois
400-540 €
Hauts-de-Seine, France
Data Engineer Senior – Plateforme Data & IA Rejoignez une équipe Data Platform en pleine construction afin de concevoir et faire évoluer une plateforme de données à grande échelle, au service de projets stratégiques orientés BI, analytics et IA générative. Missions principales Concevoir et développer des pipelines ETL/ELT robustes et scalables pour centraliser et transformer des données multi-sources. Participer à la mise en place de l’architecture Data sur environnement cloud GCP. Développer des traitements performants en Python et SQL, avec une forte culture qualité et automatisation. Préparer et structurer les datasets destinés aux usages IA / LLM. Optimiser les performances des traitements et les coûts d’infrastructure cloud. Mettre en place des mécanismes de monitoring, d’observabilité et de contrôle qualité des données. Participer au déploiement et à la maintenance des infrastructures DataOps / CI-CD. Collaborer avec les équipes techniques et métiers dans un environnement Agile. Profil recherché Bac+5 en informatique / data engineering ou équivalent. Minimum 5 ans d’expérience sur des environnements Data complexes. Très bonne maîtrise de Python (POO) et SQL. Expérience confirmée sur GCP : BigQuery, Cloud Storage, Cloud Run / Functions. Maîtrise de dbt et d’un orchestrateur type Dagster ou Airflow. Bonne connaissance des outils DevOps : GitLab CI, Docker, Terraform. Sensibilité forte aux problématiques de qualité, scalabilité et industrialisation. Intérêt pour les sujets IA générative et modern data stack. Anglais professionnel courant. Environnement technique GCP (BigQuery, GCS, Cloud Run, Vertex AI) dbt, Dagster GitLab CI/CD Docker, Terraform Data multi-sources : CRM, social data, advertising, analytics Conditions Mission longue durée Démarrage : juin 2026 Localisation : région parisienne Télétravail hybride (2 jours/semaine)
Offre d'emploi
Data engineer
Gentis Recruitment SAS
Publiée le
ETL (Extract-transform-load)
microsoft
Modélisation
6 mois
40k-64k €
550-800 €
Luxembourg
Data Engineer orienté gestion de la donnée , capable de prendre en charge la donnée de bout en bout : de son arrivée jusqu’à son exploitation, en garantissant sa qualité, sa cohérence et sa performance. Le poste s’inscrit dans un environnement majoritairement Microsoft , avec des enjeux forts autour de la structuration, de l’analyse et de la modélisation des données . Missions principales Gérer la donnée tout au long de son cycle de vie (ingestion, transformation, stockage, exploitation). Concevoir, maintenir et optimiser des data pipelines fiables et performants. Organiser et structurer les données via des modèles de données clairs et adaptés aux usages métier. Participer à des activités de data analysis pour assurer la qualité et la cohérence des données. Automatiser les traitements et flux de données via du scripting Python . Collaborer étroitement avec les équipes techniques et métiers , dans une logique transverse, afin de comprendre et répondre aux besoins liés à la donnée. Veiller aux bonnes pratiques de gouvernance, de sécurité et de performance des données. Environnement technique Écosystème Microsoft (bases de données, outils data, cloud) Python (scripting, automatisation, traitement de données) Data pipelines / ETL – ELT Modélisation de données SQL Une connaissance de l’industrie des fonds / de la gestion d’actifs constitue un réel avantage.
Offre d'emploi
Data Scientist BI - Nantes (H/F)
SMARTPOINT
Publiée le
Git
Microsoft Power BI
Python
12 mois
50k-60k €
400-500 €
Nantes, Pays de la Loire
Comprendre les enjeux métier et les traduire en solutions techniques adaptées Définir le périmètre des données nécessaires à chaque projet en lien avec les parties prenantes Estimer et planifier les charges des différents traitements et actions techniques Optimiser les modèles de données des projets portés par l'équipe Développer et optimiser des scripts Python / PySpark robustes et performants Créer et maintenir les tables et vues nécessaires aux projets data Collaborer avec les équipes Ops pour l'industrialisation des pipelines (collecte, traitement, supervision, restitution) Contribuer activement aux projets de migration de plateforme en cours au sein de la Team Data
Mission freelance
DBA ElasticSearch / Data Platform (H/F)
Link Consulting
Publiée le
Elasticsearch
6 mois
450-550 €
94360, Bry-sur-Marne, Île-de-France
Notre client, acteur du secteur audiovisuel, est à la recherche de son futur DBA ElasticSearch / Data Platform (H/F) pour son site de Bry-sur-Marne, dans le cadre d’un projet stratégique de structuration et d’optimisation de son infrastructure data. Vos missions : Intégré à une équipe technique orientée data et infrastructure, vous devrez : Réaliser des POC autour de clusters ElasticSearch ou OpenSearch Déployer et intégrer ces solutions dans un environnement Kubernetes Mettre en œuvre des solutions de stockage objet (type S3) Participer à l’évaluation et à l’intégration d’Apache Iceberg Automatiser les déploiements via Ansible Contribuer à la mise en place d’une architecture data scalable et performante Apporter des recommandations techniques et bonnes pratiques Les compétences techniques ElasticSearch ou OpenSearch Kubernetes et Docker Apache Iceberg (idéalement) Ansible (automatisation) Stockage objet (S3 ou équivalent) Connaissances en Data Lake / architectures distribuées
Mission freelance
Data Engineer/Analyst GCP
Deodis
Publiée le
Google Cloud Platform (GCP)
6 mois
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Mission sur site Aix en Provence, télétravail 2 jours / semaine Contexte : Renforcement d'une équipe projet chargée de migrer des rapports Power BI et des flux SSIS vers GCP Description: • Migrer les flux de données SSIS existants vers des pipelines GCP orchestrés avec Cloud Composer (Airflow) • Réécrire et industrialiser les transformations de données avec dbt sur BigQuery • Collaborer à la migration des rapports Power BI et à l'adaptation des modèles de données sous-jacents • Garantir la qualité des données : tests, documentation, lineage dbt • Contribuer à la modélisation et à l'architecture du data warehouse BigQuery • Travailler en mode agile avec les équipes métier et data pour prioriser les flux à migrer
Offre d'emploi
Consultant Data Python, SQL et SAS H/F
Proxiad
Publiée le
Python
SAS
SQL
Île-de-France, France
• Contexte de la mission : Besoin pour l’un de nos client issu du secteur de l'assurance. Migration de programmes et requêtes SAS en Python. La solution SAS utilisée chez ce client ne va plus être utilisée, il est donc nécessaire de migrer toutes les requêtes existantes pour poursuivre l'exploitation des données et la production des différents rapports nécessaires. L'objectif est de faire une migration "à l'identique". • Tâches à réaliser : Recenser l'ensemble des requêtes SAS existantes Recensement à priori fait mais à revoir avec les équipes en place Analyser chaque requête SAS Comprendre l’objectif de la requête et les KPIs calculés Identifier les règles métier appliquées aux calculs Valider la fréquence de la requête Interagir avec les métiers Suite à l’analyse des requêtes SAS, des réunions avec les utilisateurs métiers seront éventuellement nécessaire pour préciser, confirmer ou ajuster les règles de calcul pour chaque requête Concevoir la requête en Python Développer la requête en code python Tester la requête en comparant aux résultats obtenus sous SAS pour valider l’isorésultat Documenter le nouveau code
Offre d'emploi
Consultant BI / Data ingénieur confirmé H/F
CONSORT GROUP
Publiée le
Ansible
Jenkins
PL/SQL
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Consultant BI / Data ingénieur confirmé H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la Data, la BI et les architectures décisionnelles modernes ? Ce poste est fait pour vous. En tant que Consultant BI / Data Engineer confirmé, vous êtes responsable de la conception, de l’évolution et du maintien en conditions opérationnelles de notre écosystème décisionnel. Analyser les besoins fonctionnels et techniques des métiers Localiser et qualifier les données nécessaires Concevoir, modéliser et enrichir les datawarehouses et datamarts Développer les processus d’intégration de données (ETL / pipelines Big Data) Traiter et nettoyer les données, garantir leur qualité Participer à la migration vers le cloud, ( Databricks ) Développer et optimiser des traitements Spark Produire des rapports et tableaux de bord lisibles pour les métiers Accompagner et former les utilisateurs dans l’exploitation des données et des rapports Tester, documenter, déployer et maintenir les livrables en conditions opérationnelles Participer aux revues de code et à l’amélioration continue de l’architecture décisionnelle C’est votre parcours Minimum 5 ans d’expérience sur des fonctions BI / Data Engineer / Ingénieur Décisionnel Très bonne maîtrise de SQL Solide expérience en modélisation d’entrepôts de données (DWH, datamarts) Compétences avérées en traitement et nettoyage de données Maîtrise de Spark indispensable Expérience en accompagnement métier : ateliers, recueil de besoins, formation, support Bon niveau de développement (Spark, SQL, idéalement Python et/ou Java en plus) C’est votre expertise : Big Data : Spark (essentiel), Hive, Indexima Cloud / Data Platform : Databricks (fort enjeu de migration) Stockage : Oracle, CEPH S3 (parquet) Langages : SQL, Python, PL/SQL, Shell, Java (plus apprécié mais pas obligatoire) ETL : Informatica Dataviz : Tableau Server CI/CD & outillage : Git, Jenkins, Ansible, Terraform Ordonnancement : Control-M Méthodologie : environnement agile C’est votre manière de faire équipe : Autonomie, rigueur, sens de la qualité Esprit d’équipe, bonnes capacités de communication Curiosité, envie de comprendre le métier et les usages data Capacité d’analyse et de synthèse Force de proposition sur les solutions techniques et décisionnelles C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : Hybrid Salaire : De 44000 € à 49000 € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Mission freelance
Data Engineering (IA/ML)
Deodis
Publiée le
MLOps
1 an
650 €
Île-de-France, France
Le poste consiste à intervenir en tant qu’expert senior en Data Engineering spécialisé en IA/ML au sein d’un environnement Big Data et cloud à forte volumétrie. La mission porte sur l’optimisation, l’industrialisation et la montée en charge de plateformes Data et IA utilisant notamment Spark, Kubernetes, Dagster et Trino. Le profil recherché doit être capable d’améliorer les performances des pipelines de données, structurer les pratiques techniques, accompagner les équipes Data Science et développement, mettre en place des solutions de monitoring et de scalabilité, ainsi que participer à des projets d’innovation autour des architectures Data/IA et des outils MLOps.
Mission freelance
Business Analyst / AMOA DATA Senior (H/F)
PREREQUIS
Publiée le
Informatica
SAP BI
SQL
3 mois
La Courneuve, Île-de-France
Nous recherchons pour un de nos clients un Business Analyst / AMOA DATA Senior – Projet décisionnel & refonte SI. Missions : • Le recueil des besoins métiers • L’animation d’ateliers fonctionnels • La rédaction des spécifications fonctionnelles générales et détaillées • La modélisation des processus métiers • La conception des modèles de données • L’analyse d’impacts • La rédaction des user stories sous Jira • La stratégie de recette et scénarios de tests • Le suivi des anomalies • L’accompagnement des utilisateurs métiers • La réalisation de maquettes et rapports utilisateurs • Le support fonctionnel et décisionnel. Environnement technique • SAP BI • Power BI • SQL / Oracle • Jira • Squash • WebServices • Environnement décisionnel BI • Datawarehouse / référentiels
Offre d'emploi
Data Engineer, Azure Databrick (H-F)
K-Lagan
Publiée le
Azure
Big Data
Databricks
1 an
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous faisons vivre chaque projet grâce aux talents qui le portent, en alliant expertise technique , innovation et accompagnement personnalisé . Aujourd’hui, nous recherchons un·e Data Engineer / ML Engineer (F/H) pour rejoindre l’un de nos clients, dans un environnement data moderne et en pleine transformation, basé à Niort . 🔍 Contexte Vous interviendrez au sein d’une équipe data pour contribuer à la construction et à l’industrialisation de pipelines Data/ML , avec pour objectif de transformer des prototypes de data science en solutions robustes et scalables en production .
Offre d'emploi
Data Engineer Confirmé / Senior
CAT-AMANIA
Publiée le
Apache Kafka
Apache Spark
Batch
1 an
Rennes, Bretagne
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer confirmé / senior : Participer à la définition de l'architecture Data Concevoir, Affiner et Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code
Mission freelance
Tech Lead Data (H/F)
Freelance.com
Publiée le
Agent IA
Apache Kafka
Business Object
3 mois
400-580 €
Maisons-Alfort, Île-de-France
Dans le cadre d’un programme stratégique au sein d’une direction informatique, nous recherchons un Tech Lead Data expérimenté pour intervenir sur un périmètre lié à la gestion de solutions data critiques. Intégré à une équipe Agile organisée en train SAFe, vous participerez à la conception, au développement et à la maintenance d’applications du système d’information. Vous interviendrez en tant que référent technique de l’équipe data, avec un rôle clé dans l’accompagnement des développeurs et l’amélioration continue des pratiques. Vos principales responsabilités : Assurer le leadership technique de l’équipe data Promouvoir et mettre en œuvre de nouvelles pratiques (architecture événementielle, APIsation, modernisation technologique) Participer activement aux choix d’architecture et aux décisions techniques Collaborer avec les autres équipes data pour assurer la cohérence globale Être force de proposition sur les outils et innovations du marché, notamment autour de la data et de l’IA
Offre d'emploi
Data Quality Analyst h/f
Ela Technology
Publiée le
Alteryx
Batch
ETL (Extract-transform-load)
6 mois
Seine-Saint-Denis, France
🎯 Contexte & Enjeux Dans le cadre d’un programme de transformation d’envergure autour des processus KYC , une équipe dédiée à la qualité des données intervient au cœur du dispositif pour sécuriser la migration vers un outil cible commun et garantir l’intégrité des données entre plusieurs systèmes historiques. L’enjeu est double : accompagner les déploiements tout en assurant une continuité opérationnelle sans rupture , dans un environnement international et fortement industrialisé. Suite à un départ à la retraite programmé en milieu d’année , une mission clé est ouverte afin d’assurer la reprise, la stabilisation et l’évolution des processus existants. 🚀 Mission Au sein de l’équipe Data Quality, vous êtes garant(e) de la fiabilité des données , du bon déroulement des réconciliations et de la continuité de la chaîne de valeur , depuis les systèmes legacy jusqu’à la solution cible. Votre mission s’articule autour de deux piliers équilibrés : 🧩 50 % Développement | ⚙️ 50 % Production & Pilotage opérationnel Vos responsabilités principales Qualité & Migration des données Piloter les réconciliations quotidiennes , en mode run the business , pour assurer un flux de données continu. Piloter les réconciliations hebdomadaires , préparer et suivre les indicateurs de performance (KPI) . Superviser les processus de bulk permettant la remédiation des données dans l’outil cible. Garantir la conformité des données migrées tout au long du programme. Développement & Maintenance Maintenir, faire évoluer et sécuriser un socle VBA existant (lecture, débogage, amélioration, mises en production). Assurer la stabilité et la traçabilité des évolutions de code. Environnement collaboratif Assurer l’ administration et la migration de SharePoint vers la version Online : Organisation documentaire Gestion des accès et permissions Migration des environnements et livrables. Gouvernance & Continuité opérationnelle Être le/la garant(e) de la rigueur opérationnelle , du respect des SLA et des processus. Veiller à ne jamais interrompre l’activité des Task Forces internationales (Inde & Portugal). Documenter les procédures et accompagner la structuration des processus pérennes vers l’architecture cible.
Offre d'emploi
Analyste DLP - H/F
AMD Blue
Publiée le
Big Data
Cybersécurité
Data analysis
3 ans
43k-45k €
360-410 €
Île-de-France, France
Qui sommes-nous ? Chez AMD Blue, l'innovation est notre passion, et nous sommes fiers de présenter Blue Cyber. Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Cyber . Contexte de la mission : Notre client recherche un(e) Analyste DLP pour accompagner l'équipe dans la sécurisation des données, la réalisation d'analyses opérationnelles et l'optimisation des systèmes de surveillance. Descriptif de la mission : Les missions sont : Évaluation et analyse des événements générés par le contrôle DLP (niveau 1) selon des critères prédéfinis. Révision quotidienne des événements et escalade vers les niveaux 2 pour analyse complémentaire. Identification des points faibles du système de surveillance via l'analyse des problèmes de sécurité. Communication avec le responsable du contrôle sur la détection et la revue des règles spécifiques. Proposition de bonnes pratiques et de solutions de classification pour optimiser la détection. Réalisation du suivi hebdomadaire de l'activité et de la performance. Participation à des projets de sécurité transverses. Réalisation des premières investigations en niveau 2 pour confirmer et évaluer les fuites de données. Participation à la sensibilisation des collaborateurs aux bonnes pratiques de sécurité.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1421 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois