Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 169 résultats.
Freelance

Mission freelance
[FBO] Product Owner Data sur des données RH - Saint Denis - 1419

ISUPPLIER
Publiée le

9 mois
300-430 €
Saint-Denis, Île-de-France
Contexte de la mission Product Owner Data dans le cadre du projet DataSmart RH Les données RH sont actuellement exploitées manuellement via Excel, ce qui engendre un risque d'incohérences et une sécurité limitée. Le besoin est de disposer d'une base unique, automatisée, sécurisée et actualisée quotidiennement. Nature de la prestation à effectuer : Il/Elle adressera les actions suivantes : - Designer les alimentations des données (fréquence, groupes de données, mode delta et/ou full, stockage et data préparation) - Réaliser les spécifications détaillées des besoins d’extraction vis-à-vis de ADP et SuccessFactors afin de répondre aux besoins métier et de respecter ceux de l’environnement Data de Generali (pour la création du Data Domain) - Prendre en compte les autres systèmes providers de données (bases mortes et autre système opérationnel de formations, WeLearn/Cornerstone) - Être force de proposition pour la gestion des habilitations sur les données - Participer à la recette des extractions et des imports dans le Data Domain Il/Elle sera sous la responsabilité du manager de l'équipe Pilotage SIRH et travaillera avec l’ensemble des parties-prenantes : - L’équipe métier : Pilotage RH - L’équipe AMOA Pilotage SIRH - L’équipe IT RH - L’équipe IT DATA - Les éditeurs 2. Management de projets product owner Référent de la vision métier au sein des équipes agiles : - Collabore avec les métiers pour élaborer la vision du produit - Partage cette vision avec les équipes de développement agile - Mène une réflexion stratégique préparatoire des versions à venir Priorisation par la valeur du contenu métier : - Identifie les fonctionnalités et exigences attendues - Priorise toutes les users stories au sein du Product Backlog - Maintien le product backlog et cherche en permanence à maximiser la valeur métier pour les utilisateurs Transmission aux équipes agiles pour assurer la compréhension du besoin métier : - Découpe chaque fonctionnalité en user story pouvant être implantée en une seule itération - Définit les critères d'acceptation indispensables à sa bonne compréhension par les équipes agiles - Intègre et suit la prise en compte des exigences non fonctionnelles (ENF : accessibilité, sécurité IT, RGPD, RSE...) dès l'étape de conception - Contribue aux réunions agiles avec les équipes de développement et le Scrum Master Recette des éléments métiers produits par l'équipe agile : - Réalise ou organise le déroulement des tests utilisateurs - Récolte les feedbacks des utilisateurs pour les équipes de développement Objectifs et livrables Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP •
CDI

Offre d'emploi
Data Engineer & API Automation (H/F)

Link Consulting
Publiée le

50k-60k €
Montaigu-Vendée, Pays de la Loire
Notre client est un groupe industriel européen spécialisé dans la fabrication de compléments alimentaires, présent sur plusieurs sites en France, Belgique, Italie et Pays-Bas. Acteur engagé à l'intersection de la santé et du bien-être, il accélère aujourd'hui la structuration et la modernisation de son système d'information. Dans ce cadre de transformation, la DSI renforce son équipe avec un profil Data & Integration Engineer — rôle transverse et stratégique, au cœur de la fiabilisation des données, de l'intégration applicative et de l'automatisation des processus. Vos missions : ? Data Engineering & Qualité des données (cœur du poste, ~70%) * Concevoir, développer et maintenir des pipelines ETL / ELT fiables et industrialisés * Assurer les transformations, validations et migrations de données dans le cadre des projets ERP * Mettre en œuvre les mécanismes de qualité : contrôles, règles de gestion, historisation, traçabilité * Garantir l'intégrité, l'unicité et la cohérence des référentiels de données (MDM / PIM) * Travailler sur des modèles relationnels et analytiques (étoile, snowflake) * Contribuer au dictionnaire de données et à la documentation fonctionnelle et technique ? Intégration & Interopérabilité (~15%) * Concevoir et opérer les flux inter-applications via des solutions EAI / iPaaS (n8n, Boomi ou équivalent) * Maintenir le catalogue de flux (SFTP, API REST, GraphQL) et en assurer la documentation * Tester et déboguer les API avec des outils dédiés (Postman ou équivalent) ? APIs & Services Data pour les métiers (~10%) * Exposer des API et services data sécurisés pour faciliter l'accès aux données d'entreprise * Permettre aux équipes de construire des POC, prototypes et cas d'usage IA rapidement * Veiller à la gouvernance, à la sécurité et à la traçabilité des accès aux données ? Automatisation & IA (~5%) * Développer ou intégrer des automatisations via scripts, workflows EAI ou solutions low-code / RPA * Contribuer à l'intégration de cas d'usage IA et aider à industrialiser les prototypes métiers Les compétences techniques * * SQL avancé — indispensable (transformations complexes, optimisation, gouvernance) * Solides bases en Data Engineering : pipelines, ETL/ELT, qualité et modélisation des données * Maîtrise des API REST ; GraphQL appréciée * Pratique de Git et sensibilité aux principes DevOps * Expérience ou forte appétence pour Go, Python ou Node.js * Familiarité avec les environnements cloud — idéalement Microsoft Azure (Functions, App Services, Logic Apps) * Connaissance ou intérêt pour les outils EAI / automatisation (n8n, Boomi ou équivalents) * Sensibilité aux enjeux d'urbanisation du SI et de gouvernance des données
CDI
Freelance

Offre d'emploi
Product Owner (H/F) – Data / API / Kafka

Proxiad
Publiée le
Apache Kafka
Backlog management
Rédaction des spécifications fonctionnelles

12 mois
40k-45k €
400-500 €
Lille, Hauts-de-France
🌟 Contexte Dans le cadre d’un programme stratégique au sein du groupe ADEO, nous recherchons un Product Owner pour intervenir sur le produit Purchase Price & Profitability , et plus précisément sur le composant “Eco-contributions” . 👉 Objectif : piloter et structurer une solution permettant de gérer les éco-contributions (ex : DEEE) à l’échelle du groupe. 📅 Roadmap : Fin du cadrage business : T1 2026 Lancement des développements : T2 2026 Mise en production : déploiement sur 2 Business Units d’ici fin 2026 🎯 Enjeu majeur : remplacer une partie du legacy et construire un produit à forte valeur métier. 🎯 Votre mission En tant que Product Owner , vous êtes responsable de la vision produit et de la maximisation de la valeur métier. 🧩 Pilotage produit Concevoir et faire évoluer le produit en lien avec les métiers et utilisateurs Définir la vision produit et contribuer à la stratégie (quarter plan / PI planning) Rédiger les documents de cadrage 📊 Gestion du backlog & delivery Construire, alimenter et prioriser le Product Backlog Rédiger les User Stories / Epics (Jira) Définir les priorités en fonction des enjeux métier et techniques Suivre les KPI métier pour mesurer la valeur créée 🤝 Animation & coordination Animer les rituels agiles (sprints, reviews, etc.) Assurer la communication produit (slides d’avancement, reporting) Collaborer étroitement avec les équipes techniques et métiers ✅ Recette & qualité Valider les développements réalisés Organiser les phases de recette métier Garantir la qualité et la non-régression des livrables
Freelance
CDI
CDD

Offre d'emploi
Data Engineer(H/F)

QODEXIA
Publiée le
Apache Spark
Azure
Databricks

10 jours
France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Dans le cadre du développement de son usine digitale orientée Data , notre client recherche 6 Data Engineers expérimentés afin d’accélérer la mise en œuvre de cas d’usage sur la plateforme Databricks. 📍 Localisation : France / Remote 📅 Démarrage : ASAP
Freelance
CDI
CDD

Offre d'emploi
Développeur Python – IA / DevOps (H/F)

NSI France
Publiée le
Python

1 an
50k-55k €
500-600 €
Île-de-France, France
Nous recherchons un Développeur Python confirmé , doté d’une forte expertise technique, d’une appétence pour l’IA et d’une réelle sensibilité DevOps. Ce poste ne vise pas un profil Data Scientist ou Data Engineer : il s’agit d’un rôle de développeur Python haut niveau , capable d’intégrer, d’opérer, d’industrialiser et de fiabiliser des services IA. Responsabilité de la mission Intégrer et maintenir les services d’IA au sein d’une plateforme IA interne . Déployer et maintenir les composants de l’IA générative : LLMs, modèles d’embeddings, bases vectorielles, agents, orchestrations. Accompagner l’identification et le déploiement de cas d’usage IA pertinents au sein du groupe (contexte international). Maintenir les plateformes permettant la publication des services IA et les frameworks associés. Maintenir la plateforme de R&D mise à disposition des data scientists et leur apporter un support technique. Participer activement à la réduction de la dette technologique, notamment via la containerisation et l’industrialisation des composants.
Freelance
CDI

Offre d'emploi
DevOps Engineer IA

TS-CONSULT
Publiée le
Azure
Nosql
Tensorflow

1 an
Île-de-France, France
Bonjour a tous je suis a la recherche d'un profil DevOps Engineer IA pour l'un de mes clients, Profil recherché : DevOps Engineer avec expertise en MLOps et maîtrise du vibe coding, capable de construire et maintenir des infrastructures robustes pour l'IA tout en automatisant les déploiements et en garantissant la performance des solutions en production. Compétences requises Hard Skills : • 5 ans d'expérience minimum en développement Python avec focus IA/ML • Expérience démontrée en vibe coding avec utilisation productive d'outils IA (GitHub Copilot, Cursor, Claude, ChatGPT) • Expertise en frameworks ML/DL : TensorFlow, PyTorch, Scikit-learn, Hugging Face, LangChain • Expérience confirmée avec les LLMs (fine-tuning, prompt engineering, RAG, agents) • Maîtrise des plateformes Cloud (AWS SageMaker, Azure ML, GCP Vertex AI) • Connaissance des technologies MLOps et pipelines CI/CD pour modèles IA • Compétences en data engineering (preprocessing, feature engineering, pipelines de données) • Maîtrise des bases de données (SQL, NoSQL, Vector DBs) • Expérience en développement d'APIs (FastAPI, Flask, REST) • Bonne connaissance de la conteneurisation (Docker, Kubernetes) • Expertise en testing et qualité du code (pytest, unittest, code coverage) • Connaissance des outils de versioning (Git, GitLab/GitHub) • Un plus : Expérience en Computer Vision et/ou NLP Soft Skills : • Esprit critique développé face au code généré par IA • Capacité à décomposer des problèmes complexes et à formuler des prompts efficaces • Curiosité intellectuelle et veille technologique active sur l'IA • Pragmatisme : équilibre entre vitesse de développement et qualité • Rigueur dans la validation et l'optimisation du code • Autonomie et force de proposition • Excellent relationnel et capacité à travailler en équipe • Esprit agile et adaptatif • Capacité à partager ses connaissances et best practices Résultats attendus (Livrables) • Participation aux workshops avec les équipes IT/métiers et les Data Scientists • Développement et optimisation de modèles IA/ML pour les use cases métiers • Intégration et déploiement des modèles en production (APIs, microservices) • Utilisation experte du vibe coding pour accélérer le développement sans compromettre la qualité • Mise en place de pipelines MLOps (entraînement, versioning, monitoring) • Tests automatisés et validation des modèles (performance, robustesse, biais) • Documentation technique détaillée (code, modèles, APIs, prompts réutilisables) • Optimisation des performances (latence, coûts, scalabilité) • Veille technologique et recommandations sur les nouvelles techniques IA • Partage des best practices de vibe coding avec l'équipe
Freelance

Mission freelance
Chef de Projet MOE – Déploiement IA Générative (H/F)

CAT-AMANIA
Publiée le
Gestion de projet
IA
JIRA

2 ans
Nantes, Pays de la Loire
Description de la mission Dans le cadre d'une transformation numérique d'envergure pour un acteur public majeur, nous recherchons un Chef de Projet MOE Senior pour piloter le déploiement opérationnel de l’IA Générative. Après une phase d'expérimentation réussie, le projet entre dans sa phase de généralisation (2 ans, 3 lots successifs). Votre rôle sera de transformer l'essai en déployant des solutions concrètes (Copilot, Swiftask, Jalios JNLP) auprès de plus de 1000 agents, tout en structurant l'offre d'accompagnement et de formation. Vos principales responsabilités : Pilotage Opérationnel : Cadrage des lots, gestion du planning, suivi des tâches et coordination des comités de suivi. Déploiement Technique & Fonctionnel : Paramétrage des solutions IA, phases de recette et mise en œuvre des outils cibles. Conduite du Changement : Construction et animation du dispositif d’accompagnement (ateliers, formations, ressources digitales). Communication Institutionnelle : Interventions en CODIR pour présenter l'avancement et les enjeux stratégiques. Animation d’Écosystème : Mobilisation des expertises internes et participation à l'observatoire des usages IA.
Freelance
CDI

Offre d'emploi
Directeur de projet - Risk Data Aggregation & Reporting (H/F)

STORM GROUP
Publiée le
ETL (Extract-transform-load)
Méthode Agile
Safe

3 ans
50k-70k €
500-700 €
Île-de-France, France
Dans un contexte de renforcement des exigences réglementaires imposées aux établissements bancaires, notre client DSI met en œuvre la norme RDAR ( Risk Data Aggregation & Reporting ), visant à garantir la fiabilité, la traçabilité et la gouvernance des données de risque. Ce programme stratégique de plus de 10 M€ s’inscrit dans la continuité des travaux BCBS 239 et couvre l’ensemble du cycle de vie du projet, depuis les phases de cadrage amont jusqu’à la mise en production et la clôture. Missions principales : Phases amont & cadrage du programme – fortement apprécié Piloter les phases de pré-cadrage et de cadrage : définition du périmètre, des objectifs et des enjeux réglementaires. Conduire les études de faisabilité et les analyses d’impact (organisationnelles, techniques, budgétaires). Élaborer le business case et le dossier de lancement soumis au sponsor et aux instances de décision. Définir la vision cible, la stratégie de mise en œuvre et la structure de gouvernance du programme. Rédiger les documents de référence : charte de projet, plan de management, matrice RACI. Structurer le découpage en workstreams et lots de travaux (WBS) en cohérence avec la roadmap réglementaire. Animer les ateliers de cadrage avec les parties prenantes métier (Risk, Compliance, Finance) et IT. Pilotage du programme RDAR Assurer le pilotage global d’un programme supérieur à 10 M€, avec pleine responsabilité budgétaire. Conduire les travaux de mise en conformité à la norme RDAR au sein de la DSI bancaire. Définir et piloter la roadmap du programme en lien avec les équipes Risk, Finance et IT. Assurer le reporting d’avancement auprès des instances de gouvernance (CODIR, Comité Risques). Coordonner les workstreams métier et technique, en veillant à la cohérence d’ensemble. Gestion budgétaire & financière du programme Élaborer et suivre le budget programme (>10 M€) : plan de charge, forecast, atterrissage. Piloter les coûts par workstream et assurer la maîtrise des écarts budgétaires. Gérer les relations contractuelles avec les prestataires externes (cabinets, ESN, éditeurs). Produire les reportings financiers à destination du sponsor et des instances de gouvernance. Anticiper les risques de dérive budgétaire et mettre en place les plans correctifs. Traçabilité & gouvernance des données de risque Mettre en place les référentiels de traçabilité des données de risque ( data lineage, data quality ). Définir les règles de gestion et les normes de qualité des données en lien avec les équipes Data Office. Superviser la mise en œuvre des dispositifs de contrôle et d’auditabilité des flux de données. Piloter les travaux de cartographie des données critiques ( CDE – Critical Data Elements ). Coordination technique & Data Collaborer avec les équipes Data Engineering et Architecture sur les pipelines de données (Big Data, datalake , entrepôts). Valider les choix d’architecture technique garantissant la conformité réglementaire. Assurer l’interface entre les équipes métier (Risk, Compliance) et les équipes IT. Gestion des parties prenantes & reporting réglementaire Préparer les livrables destinés au régulateur (BCE, ACPR) et aux auditeurs internes. Animer les comités de pilotage et rédiger les comptes rendus d’avancement. Identifier et gérer les risques programme, mettre en place les plans de mitigation. Manager une équipe pluridisciplinaire de chefs de projet, business analysts et experts techniques.
Freelance

Mission freelance
POT9028 - Un architecte Data - Snowflake sur Massy

Almatek
Publiée le
SQL

6 mois
Massy, Île-de-France
ALMATEK recherche pour l'un de ses clients, Un architecte Data - Snowflake sur Massy CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Languages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
Freelance
CDI

Offre d'emploi
Consultant Sécurité Applicative

VISIAN
Publiée le
Agent IA
Blockchain

1 an
Île-de-France, France
Contexte Au sein d’une grande institution financière internationale, la mission consiste à apporter une expertise sécurité applicative / architecture sécurité pour garantir un haut niveau de sécurité du parc applicatif. Principalement sur les sujets innovation pour les applications mettant en œuvre des solutions AI et/ou Block Chain. Missions En phase projet, intégration de bout en bout de la sécurité et coordination des différentes équipes sécurité. En phase d'exploitation, support ad ‘hoc pour les équipes applicatives. Challenge des fournisseurs sur la sécurité de leurs solutions. Identification des besoins et des mesures sécurité. Préconisation de solutions concrètes, soit en catalogue ou sur mesure. Analyse des risques relatifs à l’application et ses usages. Contrôle du respect des exigences sécurité avant la mise en production. Contribution à des chantiers transverses selon les besoins d’évolutions globales du SI et des exigences de sécurité : Design de solutions avec LLM pour les activités sécurité applicatives et infrastructure Évolution des process et frameworks d’analyse et expertise Support/analyses des différents tests de sécurité (Pentest, SAST, DAST...) Politique de sécurité
Freelance

Mission freelance
[SCH] Analytics Engineer / Data Engineer Conformité – Lutte contre la fraude - 1413

ISUPPLIER
Publiée le

10 mois
400-450 €
Saint-Denis, Île-de-France
Dans le cadre de la plateforme SPIDER, dédiée à la lutte contre la fraude, le blanchiment et le financement du terrorisme, notre client recherche un Analytics Engineer / Data Engineer orienté conformité. Intégré à la squad compliance de solutions cognitives, le consultant interviendra sur une plateforme d’investigation s’appuyant sur des technologies graphes comme Neo4j et Linkurious, permettant de centraliser les données issues de multiples applications internes et d’offrir une vision 360° des personnes et de leurs interactions. La mission porte plus particulièrement sur le socle d’ingestion de données alimentant la base graphe, avec un fort enjeu de qualité, de modélisation, d’industrialisation et de collaboration avec les métiers fraude et LCB-FT. Missions : -Transformer, modéliser et documenter les données brutes pour les rendre exploitables -Développer des modèles et produits de données orientés conformité pour alimenter la base graphe -Maintenir en condition opérationnelle les flux d’ingestion vers la base de données graphe -Améliorer les processus de traitement des données afin de gagner en rapidité et efficacité -Créer et mettre à jour la documentation des produits de données -Automatiser les contrôles et tests de qualité pour garantir l’intégrité des données -Produire des analyses à destination des métiers pour le calibrage de scénarios de fraude et de vigilance LCB-FT -Collaborer avec les Data Engineers et les métiers de la fraude / conformité pour enrichir la base graphe -Participer à la mise en production des produits de données avec l’équipe Data Platform -Contribuer à la structuration des flux dans une logique ELT / ETL et architecture data moderne Profil attendu : -Expérience confirmée en Analytics Engineering / Data Engineering -Très bonne maîtrise de SQL et Python -Bonne connaissance des concepts ETL / ELT -Expérience en modélisation de données -Connaissance de Snowflake et Dataiku -Bonne compréhension des architectures data modernes (médaillon, data mesh) -Capacité à travailler sur des sujets de qualité, documentation et industrialisation -Aisance à collaborer avec des équipes techniques et métiers -Sensibilité aux enjeux de fraude, conformité et LCB-FT appréciée -Rigueur, autonomie et bon niveau d’analyse
Freelance

Mission freelance
Data Manager (Power BI)

STHREE SAS pour COMPUTER FUTURES
Publiée le
Microsoft Power BI

6 mois
Paris, France
L’entreprise recherche un expert pour piloter et renforcer la gouvernance BI & Analytics ainsi que la feuille de route du programme, qui vise à harmoniser et professionnaliser les pratiques data à l’échelle de l’organisation. La mission consiste à : Superviser le programme (rationalisation des périmètres, standardisation, amélioration du delivery, opérationnalisation du modèle de fonctionnement). Assurer la gouvernance BI & Analytics au quotidien. Faire du dashboarding (Power BI) Garantir la bonne application des standards Data : Data Governance, Data Quality, Data by Design, et la documentation associée. Contribuer au processus Data by Design avec le DPO, les Data Architects et les équipes projet. Accompagner les Business Data Owners et Data Stewards dans la gestion et la qualité des données, notamment sur certains domaines critiques comme le domaine RH. Livrables attendus : supports de pilotage (COPIL), roadmaps, suivi financier, gestion des risques, documents de gouvernance, inventaires, documentation standardisée, modèles de données et data dictionaries.
Freelance

Mission freelance
[MDO] Développeur 3D Experience / Data Migration & DBDI - Min 8-9 ans d'expérience

ISUPPLIER
Publiée le
Apache Tomcat

4 mois
710-880 €
Paris, France
Contexte : Dans le cadre de l’évolution et de la maintenance de notre plateforme 3DEXPERIENCE de Dassault Systèmes, nous recherchons un consultant expert pour intervenir sur la migration de données et l’optimisation du module DBDI . La mission vise à sécuriser et fiabiliser les flux de données tout en garantissant l’intégration avec les architectures existantes.Missions principales : Réaliser la migration de données au sein de l’environnement 3DEXPERIENCE. Exploiter et configurer le module DBDI pour automatiser les transferts et transformations de données. Intervenir sur le module TFT pour le suivi et la traçabilité des flux. Participer à la conception et à l’optimisation de l’architecture technique (Apache, Tomcat, Webservices REST). Collaborer avec les équipes fonctionnelles et techniques pour assurer la qualité et la cohérence des données migrées. Produire une documentation technique et fonctionnelle sur les processus mis en place.
Freelance

Mission freelance
101057/Architecte des moteurs et de l'IA - Python,Node.js,React

WorldWide People
Publiée le
Node.js
Python
React

9 mois
400-480 €
Bezons, Île-de-France
Architecte des moteurs et de l'IA - Python,Node.js,React Concevoir, structurer et faire évoluer nos moteurs logiciels et nos capacités d’IA. Concevoir, structurer et faire évoluer les moteurs applicatifs en Node et Python. Définir des architectures robustes, scalables et maintenables en environnement Kubernetes (GKE/EKS). Garantir des performances optimales pour des traitements intensifs (données, calculs, agents AI). Participation active au développement en React (front), Node & Python (back). Mise en place de microservices performants, adaptés aux contraintes SaaS et data-heavy. Optimisation et automatisation des déploiements via CI/CD (GitHub Actions ou équivalent). Concevoir et déployer des agents AI légers (AWS Lambda, microservices AI autonomes). Intégrer de manière cohérente les modèles LLM, embeddings, pipelines IA, outils vectoriels. Superviser la qualité, la robustesse et la fiabilité des agents dans leur exécution. Définir les pipelines de préparation des données, entraînement, validation et mise en production. Intégrer des outils MLOps (MLflow, Vertex AI, SageMaker ou équivalent). Veiller à la reproductibilité, la traçabilité et la gouvernance des modèles. Travailler en étroite collaboration avec les équipes Data, Produit, Impact scientifique et DevOps. Être l’interlocuteur technique clé pour les sujets IA, moteurs et calculs back-end. Faciliter la communication pour garantir la cohérence architecture/produit/IA. Rester à jour sur les innovations IA, agent frameworks, architectures serverless et MLOps. Être force de proposition pour optimiser les moteurs de calcul, les workflows AI et l’usage du cloud. Participer à la définition d’une feuille de route technique moderne et innovante.
CDI
Freelance

Offre d'emploi
Tech Lead IA

OBJECTWARE
Publiée le
Ansible
Dataiku
DevOps

3 ans
40k-80k €
400-600 €
Île-de-France, France
Le Technical Lead IA jouera un rôle structurant pour garantir cohérence technique, industrialisation et excellence DevOps au sein de la plateforme. h3. a. Piloter l’architecture technique de la plateforme • Définir et maintenir l’architecture agentique (Registry, Gateway/MCP, workflows, sécurités, modèles de qualification). • Assurer cohérence, robustesse, maintenabilité et alignement transverse avec les équipes IAP, MTA, Data et SSI. h3. b. Animer et structurer l’équipe de développeurs • Encadrer une équipe de développeurs et instaurer les bonnes pratiques (clean code, revue, qualité, documentation, sécurité). • Organiser les rituels techniques et accompagner la montée en compétence h3. c. Renforcer l’industrialisation, le DevOps et le run • Mettre en œuvre et piloter les environnements Kubernetes, MCP, orchestrateurs et connecteurs. • Définir et opérer la chaîne CI/CD (tests, scans, packaging, déploiements, observabilité). • Implémenter les normes : GOPROD, DORA, sécurité, monitoring Datadog/Grafana, logging distribué. • Garantir scalabilité, résilience, observabilité et conformité SSI. h3. d. Appuyer le delivery et la qualification des agents • Participer aux ateliers techniques, PI Planning, System Demos. • Contribuer au processus de qualification des agents IA (création → test → industrialisation → run). • Accompagner les équipes builders et métiers dans l’intégration en production • Pilotage technique transverse, capacité à fédérer et clarifier les responsabilités. • Maîtrise des architectures orientées agents : Registry, Gateway, MCP, outils associés. h3. DevOps / SRE • Compétences cloud, conteneurs, CI/CD, observabilité, automatisation. • Industrialisation d’environnements critiques, monitoring avancé, optimisation de pipelines. h3. Sécurité & Gouvernance IA • Connaissance approfondie des règles SSI, IA Act, propagation sécurisée des tokens. • Maîtrise AuthN/AuthZ (OIDC/JWT) et doctrines DevSecOps. h3. Communication & Transversalité • Pratique avancée de la documentation structurée (guidelines, playbooks, runbooks). • Excellente communication avec architectes, produits, DevOps, Data, SSI. h3. Infrastructure & Cloud • Kubernetes (on prem & cloud), Helm, RBAC, Secrets Management. • AWS / Azure. • Terraform / Ansible. h3. Orchestration agentique • MCP Servers, Agent Registry, Agent Gateway. • Frameworks agents : Dust, Mistral, Dataiku. h3. DevOps / CI/CD / Observabilité • GitLab CI, Jenkins, Sonar, Artifactory/Nexus. • Docker, optimisation d’images. • Datadog, Grafana, Prometheus, logging distribué. h3. Sécurité • Keycloak, OIDC, JWT. • Scans de sécurité, politiques DevSecOps. h3. Langages & intégration • Python expert (FastAPI, Langgraph, Langchain, Pydantic, asyncio). • Compétences Fullstack (Python, Java, Angular) • YAML / JSON / OpenAPI. • Kafka ou autres bus d’événements
Freelance
CDI

Offre d'emploi
Data Analyst

Atlanse
Publiée le
Dremio
ETL (Extract-transform-load)
SQL

3 ans
45k-55k €
400-500 €
Issy-les-Moulineaux, Île-de-France
Dans le cadre d’un projet de simplification et d’optimisation des données, vous intervenez sur l’analyse et l’amélioration des flux de données transactionnelles et géographiques. Vous analysez l’usage des données, identifiez les incohérences et contribuez à la mise en place d’un cadre de gouvernance des données. Votre rôle Analyse des flux et structures de données Analyser la structure des flux de données transactionnelles, les données échangées et leurs usages Identifier les incohérences, redondances ou données inutilisées Proposer des simplifications et optimisations des flux de données Amélioration de la qualité et optimisation des données Réaliser des analyses détaillées de jeux de données pour détecter anomalies, incohérences et problèmes structurels Mettre en place des indicateurs et contrôles de qualité des données pour suivre et piloter les améliorations Contribuer aux actions de nettoyage et de fiabilisation des modèles et structures de données Documentation et structuration des référentiels de données Documenter les flux transactionnels : modèles de données, règles métier, cas d’usage et guidelines Mettre à jour et clarifier le Data Catalog, les modèles de données et les spécifications de flux Définir et formaliser les règles d’utilisation et d’alimentation des données Gouvernance et collaboration Partager les résultats d’analyse avec les parties prenantes Accompagner les équipes dans la définition de plans d’action pour corriger les anomalies détectées Contribuer à la mise en place du cadre de gouvernance des données : rôles, responsabilités, règles de gestion et suivi de la qualité des données Participer aux routines de gouvernance et à l’analyse des impacts IT liés aux évolutions des données
4169 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous