L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 949 résultats.
Offre d'emploi
DATA SCIENTIST
GRLCI
Publiée le
Python
Boulogne-Billancourt, Île-de-France
Nous recherchons pour l'un de nos clients un Data Scientist avec plus de 2 ans d'expérience pour renforcer une équipe data. Vous aurez pour mission : Participer à l’amélioration continue du SI : Explorer des données et production d’analyses, Identifier et mettre en œuvre des indicateurs de suivi et des solutions d’amélioration, Réaliser des Proof of Concept de solution pour des problématiques métiers ou SI. o Analyse du problème, o Identification de solutions potentielles, o Réalisation des solutions, o Vérification que le POC répond à la problématique, o Le cas échéant, aide à l’industrialisation du POC, · Veille sur les domaines de recherche en informatique, · Aide et accompagnement des équipes MOE et MOA sur les méthodes, algorithmes, technologies utilisées dans les POC.
Offre d'emploi
Data Scientist / Python – IA & AIOps (H/F)
STORM GROUP
Publiée le
AI
Machine Learning
Python
3 ans
50k-55k €
500-520 €
Île-de-France, France
Contexte du poste : Nous recherchons un Data Scientist confirmé, expert en Python et en Data Learning, pour intervenir sur un projet d’évolution d’outils d’Event Management vers une plateforme intégrant des capacités avancées d’AIOps. L’objectif est de renforcer l’automatisation, la corrélation d’incidents et la prédiction au sein d’un environnement de supervision IT. Missions principales : - Participer à la migration d’un outil d’Event Management vers une solution intégrant des modules AIOps. - Analyser les événements et concevoir des modèles de corrélation permettant d’identifier, regrouper et prioriser les incidents. - Développer des modèles de Data Learning / Machine Learning pour améliorer la détection et la prédiction d’incidents. - Implémenter des scripts d’auto‑remédiation et des mécanismes intelligents de traitement d’alertes. - Créer, enrichir et intégrer des situations / patterns d’événements dans la plateforme AIOps. - Collaborer avec les équipes d’exploitation, d’architecture et de développement pour assurer une intégration fluide des modèles. - Contribuer à l’évolution continue des outils et pipelines IA/ML.
Mission freelance
Data Engineer expérimenté (H/F) - Nantes
CAT-AMANIA
Publiée le
Ansible
Data Engineering
Data Warehouse
1 an
Nantes, Pays de la Loire
Dans le cadre du renforcement d’une équipe Data stratégique, nous recherchons un Data Engineer expérimenté pour intervenir sur des projets à forte valeur ajoutée autour d’un socle data en constante évolution. Vous intégrerez une équipe agile composée d’experts data, d’un Scrum Master et d’un Product Owner, dans un environnement collaboratif axé sur l’innovation et l’excellence technique. La mission s’inscrit dans une dynamique combinant : Build : conception et développement de solutions data Run : maintien en conditions opérationnelles et optimisation continue Migration : accompagnement des évolutions techniques (notamment ETL → ELT) Modernisation : transformation vers des architectures data modernes Vos missions principales : Développer des traitements ELT (principalement xDI) pour alimenter un Datawarehouse Maintenir et faire évoluer les templates techniques Participer à la roadmap de migration (ETL vers ELT) Accompagner les équipes utilisatrices des solutions data Documenter les solutions mises en place Garantir la performance et la stabilité des traitements en production Identifier et proposer des optimisations dans une logique d’amélioration continue Partager vos connaissances et contribuer à la montée en compétence de l’équipe
Mission freelance
Data Analyst Professional
Codezys
Publiée le
Data visualisation
Python
SQL
12 mois
310-400 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Le projet est réalisé pour le compte d’un client resté anonyme, permettant de préserver la confidentialité de ses activités et de ses données stratégiques. La mission s’inscrit dans un environnement où l’analyse précise des données joue un rôle clé pour orienter la prise de décision et optimiser les processus internes. Le candidat doit disposer d’une expérience professionnelle comprise entre 2 et 5 ans, ce qui garantit une maîtrise suffisante des techniques d’analyse tout en étant capable de s’adapter rapidement aux spécificités du projet. Objectifs et livrables Collecte de données : Recueillir des données provenant de diverses sources, telles que bases de données internes, fichiers Excel, API tierces ou autres systèmes d’information. Assurer la qualité et l’intégrité des données dès la phase de collecte pour faciliter leur utilisation ultérieure. Visualisation et analyse : Développer des tableaux de bord interactifs et des visualisations dynamiques à l’aide d’outils comme Power BI, Tableau ou QlikView. Effectuer des analyses exploratoires pour détecter des tendances, anomalies ou opportunités spécifiques, conformément aux enjeux fixés par l’entreprise. Extraction et structuration des données : Mettre en œuvre des techniques avancées de traitement de données pour extraire des informations pertinentes. Organiser ces données sous des formats structurés, tels que des bases de données relationnelles ou des modèles multidimensionnels, en utilisant des langages comme SQL ou Python. Construction de modèles et rapports : Développer des modèles analytiques robustes, notamment des modèles prédictifs ou descriptifs, adaptés aux besoins métiers. Produire des rapports standardisés et des outils autonomes destinés à une communauté d’utilisateurs élargie, facilitant la prise de décision collective. Ce projet exige une communication fluide avec les parties prenantes, une capacité à documenter clairement le processus de traitement des données, ainsi qu’une vigilance constante pour garantir la pertinence et la qualité des livrables, dans le respect des délais impartis.
Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/l
WorldWide People
Publiée le
Data science
6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
Offre d'emploi
Consultant Data Digital - Google Suite / Piano Analytics F/H
Experis France
Publiée le
40k-45k €
Niort, Nouvelle-Aquitaine
Consultant Data Digital - Google Suite / Piano Analytics F/H - Niort Le contexte Experis recrute un Consultant Data Digital F/H pour intervenir au sein d'un grand acteur du secteur de l'assurance , dans un environnement digital à forte volumétrie de données. Vous intégrerez une équipe en charge de la collecte, de la transformation et de la restitution des données issues des canaux digitaux, au sein d'une organisation agile fonctionnant en mode SAFe , avec des livraisons régulières et orientées valeur métier. Vos missions Au cœur des enjeux data et reporting, vous interviendrez sur l'ensemble de la chaîne de valorisation des données digitales : Collaborer avec les équipes produit et métier pour définir les objectifs et KPI des features Accompagner la définition des besoins en tracking digital (Piano Analytics / GTM) Recetter les données en phase de test et après mise en production Préparer, transformer et ingérer les données dans BigQuery (Node.js) Mettre à disposition des données fiabilisées dans Looker Studio Participer à l'analyse des données produites et à l'identification d'axes d'amélioration En complément, vous serez amené(e) à : Superviser le bon fonctionnement des flux d'ingestion quotidiens et corriger les anomalies Intégrer de nouvelles sources de données pour le pilotage global des KPI Contribuer à l'amélioration continue des tracking, process et pratiques data Communiquer activement avec les équipes pluridisciplinaires (PO, UX, développeurs, testeurs, architectes)
Mission freelance
Consultant MOE MSBI socle Data ETL
PROPULSE IT
Publiée le
MOE
MSBI
24 mois
275-550 €
France
Consultant(e) MOE MSBI socle Data ETL Descriptif détaillé de la mission : - Assurer l'évolution et support des applications existantes (ETL, Bases de données, support niveau 3). Effectuer des études d'impacts et analyser les anomalies - Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. - Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. - Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. - Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). - Conseiller, proposer des axes d'amélioration, alerter si besoin. Environnement technique de la mission : - Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) - Reporting : COGNOS BI 10.2 et 11 & Tableau Durée estimée de la mission : 3 mois (renouvelables) Lieu de la mission : La Défense
Mission freelance
Cadrage risques & data (BCBS 239)
Mon Consultant Indépendant
Publiée le
Data Strategy
Gestion de projet
4 mois
650-700 €
Paris, France
Dans le cadre de la transformation de ses fonctions de contrôle, un acteur de premier plan du Crédit à la Consommation souhaite définir et structurer sa future Plateforme Risque Cible. L'enjeu est double : moderniser l'infrastructure technologique pour intégrer les opportunités offertes par l'Intelligence Artificielle (automatisation des contrôles) tout en garantissant une conformité stricte aux exigences réglementaires, notamment BCBS 239. La mission s'inscrit dans un environnement transverse, nécessitant une synergie forte entre la Direction des Risques, les équipes Data et l'IT. Objectifs et Périmètre L'objectif central est de réaliser une analyse d'écarts (gap analysis) entre l'existant et la cible, puis de concevoir la feuille de route opérationnelle pour la mise en œuvre du dispositif. Le périmètre prioritaire est le Risque de Crédit, incluant également les risques financiers, de valeur résiduelle et opérationnels. Descriptif des interventions Phase 1 : Diagnostic et Analyse de l'Existant · Recueil des besoins : Animation d'ateliers avec les équipes Risques pour identifier les attentes et les leviers d'amélioration. · Audit des "Pain Points" : Identification des points de friction du dispositif actuel (processus, outils, qualité de donnée). · Benchmark de place : Analyse comparative des pratiques du secteur (organisation, gouvernance) et veille sur les cas d'usage de l'IA dans la gestion des risques. Phase 2 : Définition de la Cible (Target Operating Model) · Scénarios de Plateforme : Proposition de différents scénarios d'architecture et de services pour la plateforme cible. · Gouvernance des Données : Définition de la chaîne de responsabilité, de validation et de gouvernance de la donnée. · Pilotage : Spécification des tableaux de bord de suivi de la qualité des données (du niveau opérationnel jusqu’au Corporate Center). · Organisation & RH : Estimation des besoins en effectifs (FTE) et cartographie des compétences nécessaires pour opérer la cible. Phase 3 : Cadrage Opérationnel et Plan de Déploiement · Feuille de route : Élaboration d'un plan d'actions structuré par chantiers. · Gestion des dépendances : Articulation étroite avec le programme interne spécifique et les impératifs du projet BCBS 239. · Planning & Gouvernance Projet : Définition des jalons clés, des étapes de validation interne et mise en place des instances de pilotage. 4. Livrables attendus · Rapport d’analyse d’écarts et benchmark de place. · Dossier de définition de la plateforme cible et de l’organisation associée. · Schéma de gouvernance et de responsabilité des données. · Feuille de route détaillée (Roadmap) et planning d'implémentation. · Estimation budgétaire et dimensionnement des équipes (FTE). 5. Profil recherché · Expertise Métier : Solide expérience en gestion des risques (Crédit, Valeur Résiduelle, Opérationnel) dans le secteur financier. · Expertise Réglementaire : Maîtrise approfondie des exigences BCBS 239. · Culture Data/IA : Capacité à projeter l'utilisation de l'IA pour l'industrialisation des contrôles métiers. · Soft Skills : Excellence en gestion de projets transverses, capacité à fédérer des interlocuteurs variés (Risque, Finance, IT, Data). · Atout majeur : Expérience opérationnelle dans le secteur du crédit à la consommation automobile (captives).
Mission freelance
Tech Lead Data & Viz - Oxygen
emagine Consulting SARL
Publiée le
DBT
Microsoft Power BI
Snowflake
3 ans
Île-de-France, France
Contexte de la mission Nous recherchons un Tech Lead Data (Snowflake/dbt) & Power BI pour piloter la delivery technique de produits data et solutions BI : définition des standards, revue de code, CI/CD, qualité, performance et gouvernance (incl. RLS). Vous serez responsable de la chaîne Snowflake → dbt → modèle sémantique → Power BI, de l’industrialisation et du run (incidents/post-mortems), tout en mentorant l’équipe. ❖ Tech Lead Data & Viz pour l'équipe DAAS ❖ Expertise Snowflake/Azure Data Factory ❖ Aide au cadrage technique sur les initiatives et projets du périmètres. ❖ Expertise Power BI sur le périmètre Regions : best practices à rediger, template, etc ❖ Faire monter en compétences une ressource France et une ressource Indec sur la partie Report Builder Objectifs et livrables Modèles data & datamarts Snowflake (tables / vues / conventions) + projet dbt (modèles, tests, documentation). Pipelines industrialisés (orchestration, CI/CD, contrôles qualité, runbooks). Modèle sémantique & rapports Power BI, avec standards performance/gouvernance (RLS, métriques). Standards de connexion Power BI ↔ Snowflake (guides, templates, paramètres).
Offre d'emploi
AMOA / Business Analyst Data - H/F
K-Lagan
Publiée le
AMOA
Cloudera
Informatica
1 an
45k-50k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous faisons vivre chaque projet grâce aux talents qui le portent, en alliant expertise technique , proximité et accompagnement personnalisé . Aujourd’hui, nous recherchons un·e Consultant AMOA Data (F/H) pour rejoindre l’un de nos clients des secteurs Assurances basé entre à Niort . Missions principales : Accompagner les équipes métiers dans leurs usages autour de la data Réaliser des analyses et apporter du conseil sur les sujets data Assurer le support fonctionnel auprès des utilisateurs Participer à la production des livrables fonctionnels Concrètement : Recueillir et analyser les besoins métiers Conseiller les équipes sur l’exploitation des données Participer au cadrage et aux études de faisabilité des projets data Garantir la cohérence des solutions mises en place Réaliser les recettes fonctionnelles et suivre les anomalies Produire la documentation (spécifications, modélisation de données) Assurer le suivi de la qualité et la satisfaction des utilisateurs
Mission freelance
Consultant Data / ERP – Transformation Excel vers ERP & BI (H/F)
Freelance.com
Publiée le
ERP
Power Platform
PowerBI
1 an
Hauts-de-France, France
Dans le cadre d’un programme de transformation digitale d’envergure, vous interviendrez sur la modernisation des usages data avec le déploiement d’un ERP de type Microsoft Dynamics 365 Business Central (environnement Tegos). L’objectif est clair : sortir des usages Excel historiques structurer, automatiser et fiabiliser la donnée rendre les équipes métiers autonomes via des outils intégrés et des reportings modernes (notamment Microsoft Power BI) Vos missions1. Cadrage & analyse des besoins Analyser les usages actuels sous Excel (reporting, KPI, fichiers critiques) Identifier les écarts avec les standards ERP Challenger les besoins pour éviter la reproduction des pratiques existantes 2. Migration & transformation Reprendre et fiabiliser les données issues d’Excel Structurer les données dans l’ERP Concevoir des restitutions via : les modes analyses ERP des dashboards Power BI 3. Automatisation & industrialisation Supprimer les retraitements manuels Mettre en place des flux automatisés (datasets, rafraîchissements) Garantir la traçabilité et la cohérence des données 4. Accompagnement au changement Former les équipes métiers Créer des supports pédagogiques Accompagner la montée en autonomie des utilisateurs 5. Gouvernance data Définir des règles de gestion et de qualité de la donnée Mettre en place des bonnes pratiques (naming, référentiels, contrôles) Assurer la cohérence entre usages métiers et modèle ERP
Mission freelance
Data Analyst expert Dataiku
Nicholson SAS
Publiée le
Dataiku
MySQL
Salesforce
6 mois
600 €
Paris, France
Entité : Banque Site : Paris ; 50% TT Prix d’achat max : 600 euros Date de démarrage : ASAP Date de fin : 31/12/2026 Mission : Au sein de la direction Data Office & RPA / Reporting&Analytics nouvellement créée chez mon client, nous recrutons pour un poste d’analyste Data et Reporting dédié à la direction marketing. Vous serez au cœur de la démarche de pilotage des activités marketing par la donnée. Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité du métier marketing au sein de la banque. Vos activités principales consisteront à accompagner les métiers marketing - dans 30 pays - dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Votre périmètre recouvre l’ensemble des données de l’activité du groupe (3 CLS, Salesforce, Medallia, sites internets, espace client, etc) Les outils utilisés afin de répondre aux besoins de nos clients sont DATAIKU, SQL avancé, bases en Python, et TABLEAU.
Offre d'emploi
Consultant finance support / paramétrage H/F
Le Groupe SYD
Publiée le
Comptabilité
Finance
6 mois
30k-32k €
280-300 €
Nantes, Pays de la Loire
🌟 Dans le cadre de notre développement, nous recherchons pour l’un de nos clients à Nantes (44), un Consultant finance support / paramétrage H/F . Démarrage : Juillet 2026 (au plus tard) Lieu : Nantes (44) Télétravail : 2 jours/semaine (non-négo) Dans le cadre de la mise en place de la facturation électronique , vous interviendrez en tant que consultant(e) finance , pour intervenir sur du support et paramétrage applicatif . À ce titre, vos missions seront : Analyser les besoins Assurer la formation applicative Intervenir sur du support et paramétrage applicatif finance
Mission freelance
Data Scientist (H/F)
Nicholson SAS
Publiée le
Data analysis
Data science
Large Language Model (LLM)
8 mois
680 €
Île-de-France, France
Informations Pratiques Secteur : Télécommunications Localisation : Arcueil (94) – Rythme hybride (2 jours de présence sur site par semaine) Démarrage : Immédiat (ASAP) Durée : Jusqu’au 31/12/2026 (Visibilité long terme) TJM max : 680 € Contexte de la Mission Suite à la mise en production réussie d'une solution de relation client innovante basée sur l'intelligence artificielle ( Speech-to-Speech ), le groupe amorce une phase de déploiement et d'industrialisation sur l'ensemble de ses canaux digitaux. L'objectif est de renforcer les équipes Data pour accompagner cette montée en charge selon deux axes stratégiques : l'optimisation du monitoring et l'automatisation de la qualité. Vos Missions Rattaché(e) aux équipes Data Science, vous intervenez sur le cycle de vie de la solution dans une logique de passage à l'échelle : Optimisation du Monitoring : Perfectionner les outils de suivi et d'analyse de performance de la solution IA en production. Mise en place du Test Ops : Concevoir et déployer une " Test Case Factory " augmentée par l'IA. Automatisation : Utiliser la Data Science pour générer des scénarios de tests automatisés à chaque nouvelle version logicielle afin de garantir la robustesse du système. Industrialisation : Participer activement au "scaling" de la solution sur les différents points de contact digitaux du client. Compétences Techniques Cœur de métier : Data Science appliquée. Spécialités : Traitement du langage naturel (NLP), intégration de modèles de langage (LLM) et architectures agentiques. Méthodologie : Sensibilité aux problématiques de mise en production (MLOps / Test Ops). Soft Skills Capacité à travailler dans un environnement technologique de pointe. Rigueur méthodologique pour assurer la fiabilité des processus de tests. Force de proposition pour l'amélioration continue des outils de monitoring.
Offre d'emploi
Data Scientist Senior — Expert IA Générative
Craftman data
Publiée le
AWS Cloud
IA Générative
Large Language Model (LLM)
12 mois
Seine-Saint-Denis, France
Data Scientist Senior — Expert IA Générative Minimum 5 ans en Data Science, dont 2+ ans en IA Générative AWS (GCP accepté si expertise confirmée) Mon client recherche un expert Data Scientist avec une forte orientation IA Générative, capable d'agir à la fois comme référent technique et comme ambassadeur de l'IA auprès des parties prenantes métiers et IT. Ce profil doit être un véritable catalyseur du changement, prêt à faire bouger les lignes et à ancrer une culture de l'IA au sein du groupe. 1. Expertise IA Générative & Data Science ▸ Définir et appliquer les méthodologies, bonnes pratiques et standards liés à l'IA Générative (LLM, RAG, fine-tuning, prompt engineering, agents autonomes…) ▸ Concevoir, développer et déployer des modèles et solutions d'IA Gen adaptés aux enjeux d'EDF ▸ Assurer une veille technologique active et identifier les opportunités d'innovation ▸ Garantir la qualité, la robustesse et l'éthique des approches IA mises en œuvre 2. Identification & Portage des Cas d'Usage ▸ Explorer et qualifier de nouveaux cas d'usage IA Générative, tant pour les métiers qu'en interne à la DSIN ▸ Challengeur les approches IA existantes et proposer des alternatives plus performantes ou innovantes ▸ Construire des preuves de concept (PoC) et accompagner le passage à l'échelle ▸ Prioriser les cas d'usage selon leur faisabilité technique et leur valeur business 3. Animation & Communication ▸ Interagir avec les acteurs clés (Directions métiers, DSI, Comité de Direction) pour présenter les travaux et défendre les orientations IA ▸ Animer des ateliers de co-construction et des sessions de sensibilisation à l'IA Générative ▸ Vulgariser des concepts techniques complexes pour des audiences non spécialistes ▸ Participer activement aux instances de gouvernance IA du groupe 4. Transformation & Acculturation ▸ Impulser une dynamique de transformation autour de l'IA au sein de la DSIN et de ses partenaires ▸ Contribuer à la construction d'une feuille de route IA ambitieuse et réaliste ▸ Mentorer et monter en compétences les équipes internes sur les sujets IA Gen ▸ Être force de proposition pour faire évoluer les pratiques et les organisations PROFIL RECHERCHÉ Compétences techniques indispensables ▸ Maîtrise avancée des techniques de Data Science : machine learning, deep learning, NLP, statistiques ▸ Expertise confirmée en IA Générative : LLM (GPT, Llama, Mistral…), RAG, agents, orchestration (LangChain, LlamaIndex…) ▸ Expérience sur AWS (SageMaker, Bedrock, Lambda…) — GCP (Vertex AI, BigQuery ML) accepté ▸ Maîtrise des langages Python et des frameworks IA/ML (PyTorch, HuggingFace, scikit-learn…) ▸ Connaissance des pratiques MLOps et de déploiement en production (CI/CD, monitoring de modèles) Savoir-être & posture attendus ▸ Excellentes qualités de communication orale et écrite, capacité à vulgariser et convaincre ▸ Leadership d'influence : capacité à embarquer sans autorité hiérarchique ▸ Curiosité intellectuelle, esprit d'initiative et goût pour l'innovation ▸ Appétence forte pour le changement et volonté de faire évoluer les pratiques dans un grand groupe ▸ Rigueur, autonomie et capacité à gérer plusieurs sujets en parallèle Expériences valorisées ▸ Expériences dans des secteurs régulés ou à forte contrainte (énergie, industrie, finance, santé…) ▸ Participation à des projets IA d'envergure avec mise en production effective ▸ Contribution à des communautés IA (publications, conférences, open source…)
Mission freelance
Data Ingénieur H/F
Insitoo Freelances
Publiée le
ETL (Extract-transform-load)
HFSQL
JIRA
2 ans
380-511 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Ingénieur H/F à Hauts-de-France, France. Contexte : L’équipe Data Engineering recherche un développeur flux Stambia / Semarchy xDI confirmé pour renforcer ses capacités de conception et d’industrialisation de flux de données. Cette équipe intervient dans un environnement fonctionnel riche couvrant plusieurs domaines stratégiques (supply, commerce, customer, etc.). L’activité se concentre exclusivement sur des échanges de données opérationnels, hors périmètre décisionnel. Vous évoluerez dans une équipe expérimentée, sur des enjeux variés de BUILD (conception, création, évolutions) et de RUN (exploitation, optimisation, astreinte). Les missions attendues par le Data Ingénieur H/F : La mission se structure de la manière suivante : ● Analyse des besoins : ○ Comprendre les besoins en matière d'intégration de données en collaborant avec le Product Owner et les parties prenantes. ● Conception : ○ Concevoir des flux complexes en utilisant l’outil Stambia / Semarchy xDI. ○ Capacité à modéliser une base de données. ● Développement : ○ Développer les flux en appliquant les meilleures pratiques de développement. ○ Produire des scripts (Python, Beanshell, Shell...) pour enrichir ou personnaliser des traitements spécifiques. ○ S’appuyer sur Git pour faciliter la collaboration entre développeurs. ● Tests : ○ Tester ses développements (performance, robustesse, non-régression...) pour garantir qualité et fiabilité. ● Documentation : ○ Documenter et partager les connaissances. ○ Réaliser des spécifications techniques. ● Maintenance : ○ Assurer la maintenance (suivi de production, monitoring, support, astreinte) des flux de données et les mises à jour en cas de besoin.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4949 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois