Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 321 résultats.
Freelance
CDI

Offre d'emploi
Développeur Backend C# .NET Core – Kafka / Cassandra (F/H)

AVA2I
Publiée le
.NET
Apache Kafka
Big Data

3 ans
40k-45k €
400-550 €
Île-de-France, France
Dans le cadre d’un projet sur une plateforme moderne orientée services, nous recherchons un Développeur Backend C# / .NET Core (confirmé à senior) pour intervenir sur des services critiques en environnement Big Data . Le profil attendu devra être autonome , capable de comprendre rapidement une architecture existante et d’être force de proposition . Missions principales Développement backend en C# / .NET Core Contribution à l’évolution d’une architecture SOA / microservices Gestion des flux Kafka (production / consommation) Intervention sur la couche Data Layer (analyse, optimisation, maintenance) Maintenance applicative et amélioration continue Rédaction de documentation technique Mise en place et maintien des tests ( unitaires / intégration ) Compétences techniques clés C# / .NET Core (solide expérience en développement backend) Architecture orientée services ( SOA / microservices ) Kafka Cassandra (fortement apprécié, voire clé sur la mission) Bonne compréhension des couches Data Layer Expérience en maintenance applicative Pratique de la documentation technique et des tests (unitaires / intégration) Contexte & environnement Environnement ALM / Treasury (connaissance fonctionnelle appréciée mais non obligatoire) Contexte Big Data Plateforme moderne et industrialisée, orientée services
Freelance

Mission freelance
Data Analyst Expert

Codezys
Publiée le
Big Data
BigQuery
Data science

12 mois
Lille, Hauts-de-France
Notre Data Analyst devra : Concevoir, développer et mettre en œuvre des modèles d’analyse territoriale afin d’identifier les variables clés influençant les dynamiques locales. Exploiter des données variées telles que les données socio-démographiques, environnementales, concurrentielles, économiques et de marché pour établir des corrélations et réaliser des prédictions. Principales missions : Collecter, nettoyer et structurer des données provenant de sources diverses, qu’elles soient internes ou externes (Systèmes d’Information Géographique, bases démographiques, données climatiques, données de marché, etc.). Développer des modèles statistiques et d’apprentissage automatique pour analyser les relations entre variables et anticiper les évolutions territoriales. Collaborer avec le Chargé d’étude en géomarketing afin d’intégrer des données géospatiales dans les analyses. Concevoir des tableaux de bord interactifs (notamment avec Power BI) et élaborer des visualisations pour faciliter la compréhension des résultats par les décideurs (cartes, graphiques, etc.). Travailler en étroite collaboration avec les experts métier pour affiner les hypothèses, valider les modèles et garantir la pertinence des analyses. Analyse et contact avec le métier : Transformer les besoins métiers en indicateurs pertinents et identifier les sources de données appropriées pour y répondre. Analyser les dynamiques croisées des territoires, notamment en matière socio-démographique, économique, immobilière, environnementale, concurrentielle et de mobilité. Convertir les résultats analytiques en livrables clairs, pédagogiques et exploitables pour les équipes décisionnelles. Gestion des données et traitement : Rédiger des requêtes SQL complexes pour la préparation et l’analyse des données. Garantir la fiabilité, la cohérence et la traçabilité des analyses produites. Participer à l’industrialisation et à la fiabilisation des données à forte valeur ajoutée, en assurant leur architecture et leur modélisation.
CDI
Freelance
CDD

Offre d'emploi
Ingénieur DevOps – Cloud Public GCP (Confirmé à Expert)

RIDCHA DATA
Publiée le
Ansible
CI/CD
Google Cloud Platform (GCP)

1 an
Boulogne-Billancourt, Île-de-France
Contexte de la mission Dans le cadre d’un programme de transformation digitale stratégique, l’entreprise recherche un Ingénieur DevOps pour intervenir sur une plateforme digitale centrale hébergée en grande partie sur le cloud public Google Cloud Platform (GCP) . La mission s’inscrit dans un environnement Agile et collaboratif, avec de forts enjeux d’industrialisation, de sécurisation et d’optimisation des infrastructures IT et cloud. Objectifs principaux Industrialiser et automatiser les déploiements d’infrastructures et d’applications sur le cloud public GCP Garantir la stabilité, la sécurité et la performance des environnements IT Optimiser les coûts et l’utilisation des ressources (FinOps) Accompagner la mise en production des services digitaux Missions clés Déployer les infrastructures et services via des outils d’Infrastructure as Code (Terraform, Ansible) sur GCP Mettre en place et maintenir les pipelines CI/CD (GitLab CI) Administrer les environnements Linux/Unix et les ressources cloud GCP Assurer la supervision, le monitoring et la gestion des incidents (RUN) Appliquer les bonnes pratiques de sécurité systèmes, réseaux et cloud Optimiser les performances des infrastructures et des flux réseau Rédiger et maintenir la documentation technique Participer aux démarches d’optimisation des coûts cloud (FinOps) Compétences techniques essentielles Expertise solide en infrastructures IT et cloud public (notamment GCP) Très bonnes compétences en réseaux (architecture, performance, sécurité) Infrastructure as Code : Terraform, Ansible CI/CD : GitLab CI Administration Linux/Unix Sécurité des environnements cloud et pipelines Monitoring et observabilité Compétences complémentaires appréciées Connaissances en IA, Machine Learning et IA générative Maîtrise des méthodologies Agiles (SAFe apprécié) Anglais technique
CDI
Freelance

Offre d'emploi
Administrateur Systèmes

RIDCHA DATA
Publiée le
Administration Windows
OpCon
UNIX

1 an
Wasquehal, Hauts-de-France
Dans le cadre du renforcement de notre équipe IT, nous recherchons un Administrateur Systèmes pour une mission longue durée. 🎯 Missions principales Support Niveau 2 et exploitation des infrastructures systèmes Supervision proactive, résolution d’incidents Ordonnancement des flux (OpCon) Scripting (PowerShell, shell, batch) Patching OS / middleware et participation aux astreintes Contribution aux projets d’infrastructure 🛠 Environnement technique OS : Windows, Linux, Unix (AIX) AD / Azure AD / Intune Ordonnancement : OpCon Patching : WSUS, GPO, OCS Supervision : ELK, Zabbix, LibreNMS Sécurité : SentinelOne Environnement multi-sites (200 agences, 2 500 utilisateurs)
Freelance
CDI

Offre d'emploi
Data Engineer (Paris ou Lyon)

TEOLIA CONSULTING
Publiée le
BI
Data Lake
Master Data Management (MDM)

12 mois
40k-45k €
400-470 €
Paris, France
Nous recherchons pour l'un de nos clients un(e) Data Engineer pour renforcer une squad Data dédiée à la mise en place d’un socle de Master Data Management (MDM) . L’objectif du projet est de centraliser, fiabiliser et gouverner les données liées aux instruments financiers , dans un environnement exigeant en matière de qualité, traçabilité et sécurité. Missions : Intégré(e) à une équipe pluridisciplinaire (Data Engineers, Architecte, BA, PO), vous interviendrez sur : La conception et le développement de pipelines de données (modèle Bronze / Silver / Gold) L’ingestion et l’orchestration des flux via Apache NiFi L’intégration de données multi-sources (CSV, XML, API REST) La modélisation des données et la construction de vues consolidées MDM La mise en place de contrôles de qualité et de traçabilité (logs, audit, complétude, cohérence, versioning) L’optimisation des performances des pipelines Le respect des standards de sécurité et conformité La documentation et le partage de bonnes pratiques au sein de la squad Environnement technique Apache NiFi SQL / NoSQL PostgreSQL Stockage objet : S3 / Blob Formats & protocoles : JSON, XML, CSV, API REST Scripting : Python , Bash CI/CD : GitLab, GitLab CI
Freelance

Mission freelance
Data Engineer (H/F)

LeHibou
Publiée le
ETL (Extract-transform-load)
PowerBI
SQL

12 mois
400-480 €
Toulouse, Occitanie
Notre client dans le secteur Aérospatial et défense recherche un/une Data Engineer (H/F) Description de la mission : Dans le cadre d'un besoin de renfort sur ses activités, notre client va rechercher un freelance expérimenté sur la partie Data. Rattaché aux équipes Data en charge de la transformation de la donnée de notre client (8 personnes), vous interviendrez en tant que Data Engineer. Ainsi, vous contribuerez aux projets actuels et futurs incluant le chargement des données le DWH : – Données de billetterie et de réservation – Données financières – Données opérationnelles Une bonne communication, autonomie, capacité d’adaptation sont attendues ainsi qu'une capacité à analyser des besoins complexes et à faciliter la coordination au sein de l’équipe ainsi qu’avec les autres parties prenantes (architecte, OPS, métier). Environnement technique : ETL : Powercenter : 20% SQL ( Teradata ) and scripting (BTEQ, shell…) : 50 % Linux : 10% Outils de reporting : SAP BI4 & PowerBI : 20%
Freelance

Mission freelance
Expert data et BI - Pré embauche - Marseille (13)

LeHibou
Publiée le
Data governance
SQL

6 mois
500 €
Marseille, Provence-Alpes-Côte d'Azur
Notre client recherche un Expert Data & BI H/F Descriptif de la mission: La mission consiste à assurer la continuité et la fiabilité des activités Data & Business Intelligence, en garantissant la qualité, la sécurité et la conformité des données. Elle vise également à piloter les projets d’intégration, de reporting et d’optimisation pour soutenir les décisions stratégiques de l’entreprise. Responsabilités clés Support opérationnel : Assurer le suivi des projets Data (ETL, entrepôt de données, dashboards) et garantir la disponibilité des services BI. Coordination : Superviser l’équipe Data en l’absence du manager, gérer les priorités et les escalades. Qualité et conformité : Maintenir les standards de qualité des données et veiller au respect des règles de sécurité et conformité. Reporting : Produire et valider les KPI, tableaux de bord et analyses pour les directions métiers. Amélioration continue : Identifier les optimisations possibles dans les processus Data et BI. Communication : Servir de point de contact pour les parties prenantes internes et externes. Compétences, expériences et qualités requises 5 à 7 ans dans le domaine Data & Business Intelligence, incluant la gestion de projets et la mise en place de solutions BI. Expérience confirmée en modélisation de données, ETL, data governance et reporting. Connaissance des environnements ERP (ex. Sage X3) et des outils de visualisation (Power BI, Qlik). Pratique des méthodologies Agile et des processus de qualité et sécurité des données. Compétences / Qualités indispensables: SQL, Data Modeling, BI Tools (Power BI, Qlik, etc.), ETL, suite MS BI SQL Server (SSAS,SSRS,SSIS) très appréciée, Gestion de projet, priorisation, coordination d’équip Compétences / Qualités qui seraient un +: Anglais Soft skills : Leadership, communication, capacité à prendre des décisions rapides. Connaissance métier : Gouvernance des données, sécurité, conformité RGPD
Freelance
CDI

Offre d'emploi
Développeur Sénior backend Java Core - Multithreading calculs distribués (7 ans et plus)

Digistrat consulting
Publiée le
Big Data
DevOps
Java

3 ans
50k-70k €
500-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
Freelance
CDI
CDD

Offre d'emploi
Dev react native / Data Engineer

IT CONSULTANTS
Publiée le
Méthode Agile

6 mois
Châtillon, Île-de-France
Nous recherchons un profil hybride, combinant une expertise en développement mobile React Native et une compétence solide en Data Engineering sur Databricks/Azure. Votre mission principale portera sur la maintenance évolutive et corrective d’une application mobile développée en React Native. En fonction de la charge de travail côté front, vous pourrez également intervenir sur la partie back/data du produit afin de contribuer aux traitements et pipelines de données sur Azure/ Databricks. Vos missions Vous interviendrez au cœur d’une squad produit sur les sujets suivants : 1) Développement mobile • Assurer la maintenance évolutive et corrective d’une application mobile en React Native • Garantir une expérience utilisateur fluide, performante et conforme aux bonnes pratiques (optimisation, modularité, testabilité) • Implémenter de nouvelles fonctionnalités ainsi que les tests associés, dans une démarche clean code (sécurité, maintenabilité) 2) Data Engineering • Concevoir, développer et implémenter des solutions Big Data Analytics • Construire et industrialiser les pipelines de données (collecte, transformation, traitement) dans le Data Lake • Développer des notebooks avancés sous Databricks (langage SQL, Framework SPARK) • Rédiger la documentation technique (DAT, release notes, etc.) • Réaliser des tests unitaires et assurer la qualité des livrables • Contribuer à la maintenance évolutive et corrective des traitements • Livrer dans un environnement DevOps (CI/CD) et maîtriser les outils associés Profil recherché • Expérience confirmée en développement d’applications React Native en production (5 ans min.) • Expérience en Data Engineering sur Azure / Databricks / Spark / SQL (3 ans min.) • Maîtrise des APIs REST • Bonne connaissance de Git et première expérience en CI/CD / DevOps Soft Skills • Proactivité et force de proposition • Capacité à évoluer dans un environnement métier complexe • Forte appétence pour la qualité du code et les bonnes pratiques Stack technique • React Native : ++++ • Databricks : +++ • Spark : +++ • Azure : ++ Un test technique sera réalisé lors de l’entretien.
CDI

Offre d'emploi
Data Engineer Databricks

KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks

45k-60k €
Paris, France
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Freelance

Mission freelance
Ingénieur Data senior

JobiStart
Publiée le
AWS Cloud
Python

1 an
400-550 €
Île-de-France, France
Intervenir sur des programmes stratégiques Data et Intelligence Artificielle au sein de la DSI, sur un socle Cloud orienté Data Intelligence Apporter une expertise Data et Machine Learning Engineering pour concevoir, déployer et exploiter des solutions analytiques et IA à l’échelle Mettre en place des chaînes complètes de gestion de la donnée, depuis l’ingestion jusqu’à l’exposition des usages data et IA Développer et automatiser des flux de données distribués en s’appuyant sur les services Cloud AWS Construire et maintenir des pipelines robustes intégrant orchestration, traitement et stockage des données Participer à la structuration et à l’industrialisation des environnements MLOps et des cycles de vie des modèles ML et IA générative Déployer, superviser et automatiser les plateformes de Machine Learning (SageMaker) et les mécanismes de monitoring associés Réaliser des traitements analytiques, transformations de données et optimisations sur des plateformes de type data warehouse cloud Mettre en œuvre des processus CI/CD et des déploiements automatisés via des outils DevOps Développer des briques techniques Data/IA exploitables par les équipes internes (pipelines, services, composants applicatifs) Participer aux phases de conception, d’architecture, de tests, d’intégration et de mise en production des solutions Alimenter et maintenir les environnements nécessaires aux produits data, analytiques et applicatifs Accompagner les équipes Data Science et techniques dans la clarification des besoins Data/IA Faciliter l’industrialisation et la mise à disposition rapide des cas d’usage Produire la documentation technique et contribuer au respect des standards d’architecture, sécurité et gouvernance
CDI
CDD
Freelance

Offre d'emploi
Intégrateur N2 des applications informatiques

KEONI CONSULTING
Publiée le
Big Data
Linux
Openshift

18 mois
20k-60k €
100-350 €
Niort, Nouvelle-Aquitaine
CONTEXTE Contexte de la mission : Prise en charge de la pré-production et de la mise en exploitation des différentes évolutions des applications informatiques ainsi que les maintenances, tout ceci dans un environnement multiplateforme. MISSIONS Contribuer au bon déroulement de la phase de pré production des projets, et dans ce cadre vous assurerez : . La réception et l’analyse des dossiers d’homologation, . La conception des chaines de traitements (automatisation, ordonnancement, …), . Le développement des procédures d’exploitation, . Le bon déroulement des tests d’homologation, . La réalisation et la mise à disposition des dossiers d’exploitation, . La livraison des applications dans l’environnement de production, . La communication avec les autres entités (développement, supports, planning, exploitation…), . Le transfert de compétences vers les équipes de Production dans l’accompagnement aux changements, . Le suivi des premières exploitations et la période de VSR(Vérification de Service Régulier). ACTIVITES : Assure le suivi et le fonctionnement optimal du périmètre technique (outils, systèmes, traitements et infrastructures techniques) dont il a la charge. Suit et analyse sa performance et sa qualité ; met en place des mesures visant à les améliorer. Elabore les règles d’utilisation, en conformité avec les normes / standards de l’entreprise, dans le respect des contrats de service. Documente, promeut et contrôle leur application. Contribue au dispositif de gestion de la qualité, sur son périmètre. Etudie et propose des évolutions permettant de pérenniser et d'optimiser le fonctionnement et la sécurité des outils, systèmes, traitements et infrastructures techniques; les met en œuvre. Valide l’installation et l’intégration des nouveaux outils, systèmes, traitements et infrastructures techniques, dans l’environnement de production. Réalise et coordonne des opérations de changement et de maintenance en veillant à leur qualité. Traite les incidents ou problèmes (du diagnostic à la remise en service). Assure la communication avec les utilisateurs sur la gestion des incidents ou à l'occasion de changements. Gère les droits d’accès aux SI en fonction des profils. Réalise le transfert de compétences et le support technique sur son périmètre. Effectue une veille technologique sur son périmètre technique. Met en œuvre les normes et principes de la politique de sécurité du SI de l’entreprise. PROFIL Formations et expériences : De formation Bac+2 minimum, avec une bonne expérience de la Production, vous avez une bonne connaissance de l’informatique en générale. Expérience professionnelle > 5 ans. Expériences requises dans les domaines : Indispensables : Unix, AIX, Linux (développement de scripts en Shell) Maitrise de l’ordonnanceur Control-M Outil de déploiement : Harvest Connaissances DATA / IA (Cloudera, Talend, Informatica, Azure Databricks) Souhaitées : Connaissance SGBD Oracle Exacc MVS/Z-OS (développement de JCLs) Connaissance SGBD DB2 Openshift Serveurs d’automatisation : Jenkins
Freelance
CDI
CDD

Offre d'emploi
Dev react native / Data Engineer

IT CONSULTANTS
Publiée le
Méthode Agile

6 mois
Châtillon, Île-de-France
Nous recherchons un profil hybride, combinant une expertise en développement mobile React Native et une compétence solide en Data Engineering sur Databricks/Azure. Votre mission principale portera sur la maintenance évolutive et corrective d’une application mobile développée en React Native. En fonction de la charge de travail côté front, vous pourrez également intervenir sur la partie back/data du produit afin de contribuer aux traitements et pipelines de données sur Azure/ Databricks. Vos missions Vous interviendrez au cœur d’une squad produit sur les sujets suivants : 1) Développement mobile • Assurer la maintenance évolutive et corrective d’une application mobile en React Native • Garantir une expérience utilisateur fluide, performante et conforme aux bonnes pratiques (optimisation, modularité, testabilité) • Implémenter de nouvelles fonctionnalités ainsi que les tests associés, dans une démarche clean code (sécurité, maintenabilité) 2) Data Engineering • Concevoir, développer et implémenter des solutions Big Data Analytics • Construire et industrialiser les pipelines de données (collecte, transformation, traitement) dans le Data Lake • Développer des notebooks avancés sous Databricks (langage SQL, Framework SPARK) • Rédiger la documentation technique (DAT, release notes, etc.) • Réaliser des tests unitaires et assurer la qualité des livrables • Contribuer à la maintenance évolutive et corrective des traitements • Livrer dans un environnement DevOps (CI/CD) et maîtriser les outils associés Profil recherché • Expérience confirmée en développement d’applications React Native en production (5 ans min.) • Expérience en Data Engineering sur Azure / Databricks / Spark / SQL (3 ans min.) • Maîtrise des APIs REST • Bonne connaissance de Git et première expérience en CI/CD / DevOps Soft Skills • Proactivité et force de proposition • Capacité à évoluer dans un environnement métier complexe • Forte appétence pour la qualité du code et les bonnes pratiques Stack technique • React Native : ++++ • Databricks : +++ • Spark : +++ • Azure : ++ Un test technique sera réalisé lors de l’entretien.
CDI
CDD

Offre d'emploi
Développeur Senior – Expertise SRE

RIDCHA DATA
Publiée le
Développement
Site Reliability Engineering (SRE)

1 an
La Défense, Île-de-France
🎯 Contexte Dans le cadre du renforcement de l’équipe SRE, nous recherchons un Développeur Senior possédant une solide expérience en SRE Platform pour accompagner les activités de développement et contribuer à l’amélioration continue des services au sein du programme CSP Harmony. 🧩 Missions Le consultant interviendra sur : L’accompagnement des activités SRE (Site Reliability Engineering). Le développement et l’évolution des composants applicatifs. L’analyse détaillée des besoins fonctionnels et techniques. La mise en œuvre de solutions techniques fiables et performantes. La réalisation de la documentation technique associée. La qualification technique et fonctionnelle des composants. La validation des spécifications fonctionnelles détaillées. La collaboration avec les équipes internes et les prestataires impliqués. 📦 Livrables attendus Développements conformes aux besoins exprimés Documentation technique Composants testés, qualifiés et validés 🛠️ Compétences techniques requises Impératif : Développement – Confirmé SRE Platform – Confirmé
Freelance

Mission freelance
AI Data engineer H/F

HAYS France
Publiée le

12 mois
500-700 €
Luxembourg
Responsabilités clés : 1. Ingénierie des données et Développement de produits IA Concevoir, construire et maintenir des pipelines de données robustes ainsi que des produits de données pour les cas d'usage en analytique et en intelligence artificielle. Développer et optimiser des architectures hybrides (sur site / cloud). Mettre en œuvre l'automatisation CI/CD, des frameworks de tests et des processus de livraison industrialisés. 2. Analytique avancée & Machine Learning Développer, déployer et superviser des modèles de machine learning (fraude, performance commerciale, AML/KYC, compréhension de documents). Réaliser des expérimentations, du prototypage et des évaluations à l'aide de métriques structurées. Traduire des articles de recherche en solutions prêtes pour la production. Assurer la supervision technique et la relecture de code pour les contributeurs juniors. 3. Ingénierie IA & LLM Construire des composants pour l'OCR, la classification de documents, l'extraction d'informations et la génération augmentée par la recherche (RAG). Concevoir des modèles de prompts, des jeux de données d'évaluation et des flux d'interaction avec les LLM. Intégrer Snowflake Cortex, Dataiku LLM Mesh et des technologies équivalentes dans les processus bancaires. 4. Architecture, Intégration & MLOps Intégrer des modèles d'IA dans les processus métiers via des API, des microservices et des couches d'orchestration. Garantir des implémentations sécurisées et de niveau production en collaboration avec les équipes d'ingénierie. Gérer le versioning, la supervision, la traçabilité et la conformité aux règles de gouvernance de l'IA. 5. Engagement des parties prenantes & Gouvernance Produire la documentation des modèles, les supports de validation et des présentations adaptées aux comités. Communiquer les résultats et les analyses aux parties prenantes techniques et non techniques. Accompagner les lignes métiers, la conformité et les fonctions de gestion des risques pour assurer une adoption sécurisée de l'IA.
Freelance
CDI
CDD

Offre d'emploi
Data Engineer / GenAI Engineer (Senior)

RIDCHA DATA
Publiée le
DevOps
Docker
Mongodb

1 an
Île-de-France, France
Contexte de la mission Dans le cadre d’un programme stratégique d’IA augmentée , la mission vise à concevoir et déployer un dispositif de benchmark permettant d’évaluer les technologies et solutions d’IA générative du marché. L’objectif est de sécuriser les choix technologiques , réduire les risques et structurer une roadmap produits et technologies IA . Objectifs globaux Mettre en place une architecture data complète dédiée aux benchmarks IA générative Automatiser l’ingestion, la préparation, le versioning et l’évaluation des données Garantir performance, scalabilité, traçabilité et reproductibilité des benchmarks Missions principalesArchitecture & Data Engineering Concevoir et implémenter des pipelines automatisés d’ingestion, nettoyage et versioning des datasets Développer des pipelines de génération d’embeddings et de collecte des résultats des modèles IA Mettre en place et administrer des bases de données : Vectorielles SQL / NoSQL Stockage objet (volumes importants) Définir une architecture data robuste répondant aux exigences de performance et de scalabilité DevOps & Industrialisation Conteneurisation des environnements ( Docker ) Mise en place d’ Infrastructure as Code (IaC) Automatisation CI/CD et déploiements reproductibles Qualité, documentation & gouvernance Rédiger le dictionnaire de données Produire la documentation technique complète Définir les procédures de validation et de contrôle qualité des données Assurer la traçabilité et la conformité des traitements Livrables attendus Architecture data détaillée (schémas, flux, intégrations) Infrastructure data opérationnelle (DB vectorielles, SQL/NoSQL, stockage objet) Environnements reproductibles (IaC, Docker, configurations) Code source documenté et versionné des pipelines Dictionnaire de données et documentation technique Procédures de validation et critères d’acceptation qualité Méthodologie Travail en mode Agile Participation aux rituels agiles et points d’avancement réguliers Reporting mensuel : livrables réalisés, à venir, points bloquants Compétences techniques requisesImpératives Python avancé (API, scripts, pipelines data) Bases de données : PostgreSQL, MongoDB, bases vectorielles Cloud : Google Cloud Platform (GCP) DevOps : Docker, Kubernetes, CI/CD (GitLab CI) Architecture Data & Big Data IA générative : LLM, RAG, embeddings, prompts Appréciées IaC (Terraform ou équivalent) Tests unitaires, intégration et fonctionnels Software Craftsmanship (code review, pair programming) Connaissances fonctionnelles Concepts IA : LLM, agents, assistants, hallucinations, prompts Usage critique et éthique de l’IA RGPD et enjeux éthiques liés à l’IA Langues Anglais technique courant – impératif (oral & écrit)
2321 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous