Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 108 résultats.
CDI

Offre d'emploi
Ingénieur en système embarqué H/F

HAYS France
Publiée le

28k-32k €
Bidart, Nouvelle-Aquitaine

Vous intégrerez une structure à taille humaine, spécialisée dans le développement de systèmes cyberphysiques intelligents déployés dans des environnements industriels, naturels ou mobiles. Vos missions : Réaliser une veille technologique et proposer des solutions créatives Concevoir et développer des prototypes de systèmes embarqués Collaborer avec des data scientists pour optimiser l'architecture des traitements Rédiger du code propre, structuré et performant Maintenir et faire évoluer les systèmes existants vers l'industrialisation Contribuer à la documentation technique et à la diffusion des connaissances

CDI

Offre d'emploi
Business Analyst IA Générative - RAG

HN SERVICES
Publiée le
IA Générative

50k-58k €
Paris, France

Missions principales : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets. • Suivre la production afin de garantir la satisfaction du client.

Freelance
CDI

Offre d'emploi
ML Engineer

VISIAN
Publiée le
Machine Learning
Python

1 an
40k-45k €
100-570 €
Montreuil, Île-de-France

Descriptif du poste Dans le cadre de l'accélération de l'IA d'une grande banque commerciale en France, au sein de l'IA Factory, nous recherchons un ML Engineer pour permettre la mise en production des algorithmes élaborés par les Data Scientists. Objectifs de la Mission Contribuer à la mise en production d'algorithmes de Machine Learning Optimiser le déploiement et le cycle de vie des modèles IA Compétences et Qualités Attendues Compétences DevOps : GitLab Gitlab-CI Docker Pipeline CICD Services cloud Python Outils de code quality : Ruff Black MyPy Sonarqube

Freelance
CDI

Offre d'emploi
MLOps/MLEngineering

OBJECTWARE MANAGEMENT GROUP
Publiée le
Artifactory
CI/CD
Fortify

3 ans
40k-70k €
400-600 €
Nanterre, Île-de-France

u sein de la tribu Data & IA, la squad DataLab contribue de manière significative à l'ambition stratégique de notre clinet pour devenir une entreprise axée sur l’analytics. Le rôle de la squad Datalab est de piloter la plateforme Domino Datalab permettant aux data scientists des différentes filiales de Cardif en France et à l’internationale (30 pays, une centaine d’utilisateurs) de travailler sur toutes les étapes du cycle de vie d’un modèle d’IA (Design, Training, Evaluation, Deployment Monitoring) et de maintenir en condition opérationnelles tous les use cases IA publiés (environ 100 de modèles en dev, staging et production). Avec le renforcement des ambitions IA dans un cadre d’amélioration continue, la squad Datalab doit répondre aux nouveaux besoins des data scientists et nouveaux usecases IA, tout en renforçant l’automatisation, la sécurisation et l’intégration de notre plateforme au sein du SI. La prestation doit délivrer les expertises suivantes : • Expérience MLOPS • Machine Learning/Deep learning • Très bonne maitrise du langage Python • Expérience dans les méthodes agiles • Excellentes compétences en communication écrite et orale (clarté, synthèse, pédagogie) associées à un excellent esprit d'équipe • Compréhension des concepts informatiques (API, authentification, workflow, données) • Capacité à comprendre les besoins métier et à les traduire en exigences informatiques. • Connaisse de la solution Domino Datalab • Maitrise des outils : GitLab CI/CD, Artifactory, SonarQB, NexusIQ, Fortify • Intégration de composants techniques avec flux de données associés, notamment architecture à 3 niveaux, authentification SAML, services web et HTTPS. • Pipelines de données • Modélisation statistique

Freelance
CDI

Offre d'emploi
Product OWNER DATA : Data Science / IA / RPA -NIORT

Argain Consulting Innovation
Publiée le
Business Object
Cloud
Data science

6 mois
40k-55k €
400-540 €
Niort, Nouvelle-Aquitaine

Dans le cadre du renforcement de notre pôle DATA, ARGAIN Consulting Innovation recherche un Product Owner DATA (H/F) expérimenté, avec une forte culture Data / IA / RPA / Data Science. En tant que PO DATA, vous serez responsable de l’ensemble du cycle de vie du produit, de l’idéation jusqu’au déploiement, en garantissant systématiquement la création de valeur métier . Vous jouerez un rôle pivot entre les équipes métiers (gestionnaires, actuaires, finance, commerce…) et les équipes techniques (data engineers, data scientists, développeurs RPA / IA), dans un environnement où l’accélération de la culture DATA est un enjeu clé. Vos responsabilités incluent notamment Pilotage produit Cadrer et qualifier les besoins métiers et les transformer en cas d’usage DATA concrets Définir la vision produit et la feuille de route associée Construire et prioriser le backlog en lien avec les équipes techniques Piloter la conception et la mise en production des solutions Mesurer et valoriser l’impact (ROI, gains opérationnels, expérience collaborateur…) Animation & coordination Animer les ateliers de cadrage, comités de pilotage et démonstrations produits Faciliter la collaboration entre les acteurs métiers et les squads Data Acculturer les métiers aux usages Data / IA / RPA Challenger les demandes pour orienter vers les solutions les plus efficaces Vision & apport d’expertise Identifier de nouveaux cas d’usage en lien avec les enjeux stratégiques Porter les innovations (IA, automatisation, MLOps, data science appliquée) Contribuer à la structuration du modèle opérationnel de l’équipe DATA Participer à l’amélioration continue des processus de delivery Data Ce rôle s’inscrit dans un environnement de transformation où l’autonomie, le leadership fonctionnel et la capacité à piloter la valeur sont essentiels.

Freelance

Mission freelance
Administrateur(trice) Dataiku DSS - LUXEMBOURG

FUZYO FRANCE
Publiée le
Dataiku
Python
Scripting

6 mois
400-550 €
Luxembourg

Mission au Luxembourg. Il est impératif et obligatoire de résider proche frontière LUXEMBOURG Nous recherchons un(e) consultant(e) expérimenté(e) pour administrer et faire évoluer une plateforme Dataiku DSS au sein d’une équipe Data Science & AI. Vous contribuerez également à des projets techniques transverses (OpenShift, DevOps, MLOps, LLMOps). Missions : Administration, maintenance et optimisation de la plateforme Dataiku DSS Automatisation des opérations via Python (monitoring, upgrades, gestion utilisateurs) Support aux utilisateurs (data scientists, analystes, métiers) Collaboration avec les équipes infrastructure (OpenShift / Kubernetes) Développement de composants réutilisables (plugins, recettes, indicateurs) Rédaction et mise à jour de la documentation technique Participation à des projets DevOps, MLOps, LLMOps Profil recherché : Bac+3 à Bac+5 en informatique, data engineering ou équivalent Expérience >6 ans en administration de Dataiku DSS en environnement de production Maîtrise de Python, scripting, CI/CD Connaissances en OpenShift, Kubernetes, Big Data (Hadoop, Spark, Kafka) Autonomie, rigueur, esprit analytique Expérience dans le secteur bancaire appréciée

Freelance

Mission freelance
AI / Analytics Software Engineer (h/f)

emagine Consulting SARL
Publiée le

1 mois
570-600 €
75017, Paris, Île-de-France

Résumé : Nous recherchons un « AI / Analytics Software Engineer » pour concevoir, développer et déployer des solutions logicielles autour de l’AI et de la GenAI. Le candidat idéal aura une solide expérience en développement logiciel avec le langage Python, en Machine Learning et en DevOps. Responsabilités : Concevoir, développer et maintenir des applications logicielles Python orientées machine Learning et IA. Industrialiser et mettre à l'échelle les solutions autour de l’IA. Rédiger un code propre, maintenable et efficace pour diverses applications logicielles. Mettre en œuvre les meilleures pratiques en matière de développement logiciel et de machine Learning. Développer des API et des services pour l'exposition des services autour de l’IA. Utiliser des technologies de conteneurisation telles que Docker pour le déploiement et la gestion des applications. Participer à la mise en œuvre des pratiques DevOps pour assurer la fiabilité, la scalabilité et la sécurité des systèmes. Travailler en étroite collaboration avec les « Data Scientists » lors de la conception et la réalisation des modèles. Compétences : Diplôme d’ingénieur ou master en informatique. Minimum 5 ans d’expérience. Forte expérience en développement logiciel avec Python. Expérience en DevOps. Expérience en Machine Learning. Forte maîtrise des Frameworks de développement web tels que Flask et FastAPI. Solides compétences en bases de données SQL et NoSQL. Connaissance des bases de données vectorielles. Anglais courant. Autres Détails : Localisation: Paris 17 - 2 jours TT/semaine

Freelance

Mission freelance
Scrum Master – Data/IA - (conformité)

VISIAN
Publiée le
Kanban
Scrum

1 an
400-550 €
Île-de-France, France

🎯 Contexte & Objectifs Le pôle Data & IA recherche un Scrum Master bilingue et expérimenté pour accompagner une équipe internationale de 15 Data Scientists dans le cadre de projets de développement et de missions d’inspection. 🔑 Missions principales Faciliter et animer le fonctionnement de l’équipe (rituels agiles, backlog, rétrospectives). Garantir le respect des méthodes agiles (Scrum, Kanban, Scrumban). Suivre la vélocité, burndowns, obstacles et actions. Proposer et mettre en place des méthodes et outils favorisant efficacité, créativité et initiatives. Animer une équipe multi-nationale (anglais requis). Générer les KPI de suivi et rapports pour le PO et le management.

Freelance
CDI

Offre d'emploi
Chef de projet technique SI / IA

ABSIS CONSEIL
Publiée le
API
AWS Cloud
Gestion de projet

4 ans
48k-52k €
450-500 €
La Défense, Île-de-France

Nous recherchons pour notre client un Chef de projet Technique SI pour piloter un programme ayant pour objectif le développement et l'industrialisation d'un algorithme d'intelligence artificielle. Cet algorithme permettra à notre client d'optimiser le pilotage de son activité. Vous serez garant de l'intégration de la solution dans le SI et sur une plateforme AWS. Vos missions : Pilotage de projet de bout en bout. Animation des équipes techniques (data scientist, développeurs) en Agile Coordonner les métiers, partenaires. Suivi du planning, budget et des risques. Piloter le déploiement de la solution sur le SI et le cloud Participer à la définition des architectures data & logicielles Superviser les phases de tests techniques Vous serez l'interface technique entre toutes les parties prenantes. Vous aurez à votre charge toute la communication et le reporting de votre projet. Pré-requis Bac + 5 école d'ingénieur ou équivalent vous avez entre 5 et 8 ans d'expérience en gestion de projets SI complexes Vous avez des expériences avérée sur des projets d'intégration dans des environnements Cloud AWS , et idéalement dans le domaine de l'IA vous connaissez les méthodologies Agile (Scrum, Safe) Vous avez des compétences en architecture logicielle (API, microservices) Maitrise des outils : Jira, Confluence et Powerpoint

CDI
Freelance

Offre d'emploi
Expert migration SAS vers Dataiku

ANAFI CONSULTING
Publiée le
Dataiku
Méthode Agile
SAS

2 ans
40k-65k €
400-550 €
Tours, Centre-Val de Loire

Notre client souhaite migrer ses solutions analytiques et ses processus de traitement de données de l’environnement SAS vers la plateforme Dataiku . Dans ce cadre, vous interviendrez en tant qu’expert pour accompagner cette transformation, en garantissant la continuité des processus métiers et l’optimisation des performances. Missions principales : Analyser les processus existants sous SAS (scripts, macros, workflows) et identifier les dépendances. Concevoir des solutions équivalentes ou optimisées sur Dataiku, en collaboration avec les équipes métiers et techniques. Développer et tester les nouveaux workflows Dataiku, en assurant la compatibilité avec les systèmes existants. Former les équipes internes à l’utilisation de Dataiku et documenter les bonnes pratiques. Accompagner le déploiement progressif des solutions et assurer le support post-migration. Optimiser les performances des nouveaux processus et proposer des améliorations continues. Compétences techniques : Expertise confirmée en développement SAS (Base SAS, SAS Macro, SAS SQL, SAS DI Studio, etc.). Maîtrise avancée de Dataiku (création de workflows, utilisation des recettes, intégration avec d’autres outils, etc.). Connaissance des bonnes pratiques en migration de données et en gestion de projets data. Expérience avec les bases de données (SQL, Oracle, PostgreSQL, etc.) et les environnements Big Data . Familiarité avec les outils de versioning (Git) et les méthodologies Agile/DevOps . Compétences transverses : Capacité à travailler en équipe pluridisciplinaire (métiers, IT, data scientists). Pédagogie pour former et accompagner les utilisateurs finaux. Autonomie , rigueur et sens de l’organisation pour gérer des projets complexes. Excellente communication écrite et orale pour documenter et présenter les avancées.

Freelance

Mission freelance
Product Owner Indexation Documentaires / AI

Codezys
Publiée le
Méthode Agile

6 mois
450-500 €
Les Ulis, Île-de-France

Métiers et Fonctions : Pilotage de projet ou de programme Product owner Spécialités technologiques : Gestion des données Intelligence artificielle (AI) Type de facturation : Assistance Technique (taux journalier) Compétences : Méthodes / Normes : Agile Langues : Anglais Description de la prestation : Un Product Owner est recherché pour un projet d'indexation documentaire intégrant de l'IA dans un programme utilisant des solutions d’indexation avancée pour le système RAG (Retrieval-Augmented Generation). Le rôle clé du Product Owner inclut : Définir la stratégie produit : vision, opportunités d’innovation (NLP, RAG), prioriser les cas d’usage Gérer le backlog : organisation, priorisation, utilisation des méthodes de discovery Collaborer avec les équipes techniques (data scientists, ingénieurs IA, développeurs) et métier Suivre la performance avec des KPIs (pertinence, temps de réponse, couverture, coûts) et proposer des améliorations Gérer les données : collecte, traitement, stockage, qualité, sécurité et conformité Assurer la mise en production : documentation, formations, support et maintenance Livrables attendus : Roadmap opérationnelle Backlog détaillé et organisé Rapports de performance (KPIs) Documentation technique et fonctionnelle Procesus de déploiement et de support

Freelance

Mission freelance
Data Engineer | DevOps AWS (H/F)

Atlas Connect
Publiée le
AWS Cloud
CI/CD
Data analysis

9 mois
400-450 €
Saint-Denis, Île-de-France

Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction , à l’évolution et à la fiabilité d’un Data Lake stratégique , au cœur des projets liés à l’analyse de l ’expérience utilisateur. Vous interviendrez sur l’ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d’un environnement AWS moderne, dans une logique d’ industrialisation , de performance et de qualité de service . Vos principales missions : • Maintenir et faire évoluer une architecture data scalable sur AWS , adaptée à des volumes importants de données hétérogènes ( logs, fichiers, API …). • Concevoir et structurer les différentes couches du Data Lake ( Landing, Bronze, Silver ) en lien avec les besoins métiers et les bonnes pratiques data. • Développer des pipelines de traitement de données robustes et automatisés ( ETL/ELT ), en batch ou quasi temps réel , via des services AWS : Glue, Lambda, EMR, Redshift, S3… • Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. • Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. • Intégrer de nouvelles sources de données aux formats variés ( API REST, fichiers plats, logs applicatifs …) tout en assurant sécurité et performance . • Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. • Participer à l’ amélioration continue de la plateforme (veille, refonte, optimisation) , dans une logique DataOps (CI/CD, qualité, tests, versioning). • Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus . • Documenter l’architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.

Freelance

Mission freelance
Data Platform Architect

Phaidon London- Glocomms
Publiée le
AWS Cloud
Big Data
Data analysis

6 mois
450-620 €
Paris, France

Fournir un accompagnement fonctionnel et technique solide pour garantir la conception adéquate de la plateforme de données et d'analyse, en visant des solutions techniques et d'intégration de pointe. Concevoir, coordonner et exécuter des projets pilotes, des prototypes ou des preuves de concept pour valider des scénarios spécifiques. Diriger et coordonner les activités opérationnelles liées à la plateforme de données et d'analyse. Assurer la responsabilité de la documentation technique des plateformes impliquées dans la plateforme. Collaborer avec les architectes d'entreprise pour aligner les conceptions de la plateforme de données et d'analyse sur l'architecture globale et contribuer à cette architecture. Superviser et améliorer continuellement l'architecture et l'écosystème de la plateforme de données et d'analyse. Maintenir une connaissance approfondie des outils et plateformes utilisés dans la plateforme de données et d'analyse, ainsi que de leur écosystème et de leur feuille de route. Répondre aux besoins organisationnels des différents utilisateurs de la plateforme de données et d'analyse, notamment les data scientists, les data engineers et les développeurs Qlik. Mener la transition continue du système sur site vers le cloud public. Coaching de l'équipe de développement dans les domaines pertinents.

Freelance

Mission freelance
DEVELOPPEUR RUBY - CONFIRME

Groupe Aptenia
Publiée le
Linux
PostgreSQL
Ruby

3 mois
Boulogne-Billancourt, Île-de-France

Contexte de la mission Au sein de l’équipe technique, vous travaillerez dans un environnement de développement logiciel agile, en collaboration avec des développeurs, des data scientists, des product owners et scrum masters expérimentés Objectifs et livrables Vous évoluerez dans un environnement utilisant les dernières technologies en termes de développement, Big Data et Infra : Rails 7, Vue.js, Python, Kubernetes, Terraform, Google Cloud Platform, Dataiku, PostgreSQL et vos missions consisteront à : Développer les nouvelles fonctionnalités des différents produits Maintenir et améliorer l’architecture logicielle durant les cycles de développements avec prise en compte des contraintes systèmes et business Garantir la performance, la sécurité et la mise à jour des applications Définir et maintenir la supervision des applications (monitoring, metrics, alerting…) Issu(e) d’une école d’ingénieur avec au moins +5 années d’expériences en développement en ruby, vous vous définissez comme un développeur ouvert, avec des connaissances pointues en développement ruby mais aussi en modélisation de base de données PostgreSQL. Vous justifiez également d'une forte appétence aux principes DevOps. Bon niveau d’anglais (écrit & parlé), communication, documentation et rituels de l'équipe se font en anglais Autonomie, rigueur, curiosité, relationnel L’environnement de travail: Backend : Ruby (Rails), NodeJS Frontend : HTML, CSS, JS Base de données : PostgreSQL, Redis Intégration continue (Circle CI, GitHub) Architectures microservices et Containerisation (Docker, Kubernetes) Plateformes Cloud : Google Cloud Platform Méthodologie Agile (Scrum/Kanban, Jira/Confluence) Outils de monitoring & alerting (Stackdriver, Jaeger) Tests automatiques (unitaires, intégration, fonctionnels) Documentation

Freelance
CDI

Offre d'emploi
Architecte Cloud Data Stratégique GCP

PointRD
Publiée le
AWS Cloud
Azure
Big Data

24 mois
Île-de-France, France

Vos Responsabilités Clés Conception d'Architectures Data GCP : Définir et concevoir des architectures Data Cloud robustes, sécurisées et évolutives (Data Lakes, Data Warehouses, Data Mesh, solutions d'Analytics) en utilisant les services natifs de GCP. Expertise et maîtrise de services clés tels que BigQuery, Dataflow, Dataproc, Cloud Storage, Pub/Sub et Vertex AI . Stratégie Multi-Cloud et Migration : Contribuer à la stratégie Multi-Cloud du groupe, en assurant l'interopérabilité et l'intégration des services Data de GCP avec d'autres fournisseurs (AWS/Azure) ou les systèmes on-premise . Mener des phases de migration de systèmes de données existants (Legacy) vers la cible Cloud, en déterminant la meilleure approche (Re-platforming, Refactoring). Gouvernance et Sécurité (Cloud Data Security) : Définir la Landing Zone Data sur GCP , incluant les politiques de sécurité (IAM, KMS) et la gestion de la conformité réglementaire Data. Garantir la mise en œuvre de l' Infrastructure as Code (IaC) via Terraform pour le déploiement reproductible et sécurisé des plateformes Data. Optimisation et Conseil : Mettre en place des pratiques de FinOps pour optimiser les coûts liés au stockage et au traitement des gros volumes de données sur GCP. Fournir un leadership technique et un support aux équipes de Data Engineers et Data Scientists.

Freelance

Mission freelance
Ingénieur(e) IA / ML Ops senior

Zenith Rh
Publiée le
CI/CD
Git
Intelligence artificielle

12 mois
Yvelines, France

En tant qu’ingénieur(e) IA / ML Ops senior, vos principales missions sont de : - Gérer le portefeuille de cas d’usage d’IA (ML/deeplearning, IA Gen, agentique) pour un ou plusieurs départements. - Être le référent IA auprès de vos différents interlocuteurs : chef de projets, développeurs, architectes, métiers, partenaires internes et externes. - Accompagner les directions dans le cadrage de leurs cas d’usage et traduire les besoins métiers en spécifications techniques. - Contribuer à la modélisation de votre portefeuille de cas d’usage : - S’assurer que les modèles développés respectent les standards de performance, robustesse, explicabilité et conformité. Garantir que les modèles / cas d’usage développés soient parfaitement industrialisables. - Mettre en place les bonnes pratiques, méthodes de Feature Engineering et de validation des données. - Challenger les approches proposées par les Data Scientists. - Piloter l’industrialisation et le déploiement des modèles IA - Définir et appliquer le cadre ML Ops du groupe : reproductibilité, versioning, automatisation des tests, gouvernance des modèles - Concevoir des architectures IA modulaires, en évaluant en amont ce qui a déjà été développé et en favorisant la mutualisation plutôt que le redéveloppement systématique. Travailler en collaboration étroite avec les autres directions IA pour harmoniser les choix technologiques et accélérer l’industrialisation. - Construire et implémenter les pipelines, CI/CD, monitoring. - S’assurer de la conformité avec les normes internes techniques et réglementaires (cadre normatif / IA act / RGPD). - Garantir la qualité et la conformité - Structurer et diffuser les bonnes pratiques : organisation du code / worflow Git, qualité et tests, ML Ops et reproductibilité (tracking, versioning, CI/CD, orchestration, infra as code, …), sécurité, gouvernance et réutilisabilité, « definition of done », règles d’usage de GitHub Copilot - Auditer et valider les modèles / cas d’usage développés. - Garantir la qualité et la conformité des livrables avant mise en production. - Etablir la traçabilité : documentation, métadonnées, suivi des performances. - Être le point de contact technique privilégié pour les instances de validation. - Encadrer et accompagner les juniors et les collaborateurs dans le domaine de l’IA. - Organiser la montée en compétence progressive et objectivée des juniors. - Jouer un rôle de pédagogue vis-à-vis des métiers pour vulgariser les concepts, les choix technologiques et assurer leur adhésion. - Assurer une veille technologique active sur les outils, frameworks, et paradigmes IA. Proposer de nouvelles solutions / architectures adaptées aux besoins métiers. - Usage Interne / Internal Use - Anticiper les évolutions des réglementations et intégrer les enjeux de responsabilité de l’IA.

108 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous