Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 900 résultats.
Freelance

Mission freelance
Data Engineer & API Automation (H/F)

Link Consulting
Publiée le
API
Python

12 mois
450-550 €
Montaigu-Vendée, Pays de la Loire
Notre client est un groupe industriel européen spécialisé dans la fabrication de compléments alimentaires, présent sur plusieurs sites en France, Belgique, Italie et Pays-Bas. Acteur engagé à l'intersection de la santé et du bien-être, il accélère aujourd'hui la structuration et la modernisation de son système d'information. Dans ce cadre de transformation, la DSI renforce son équipe avec un profil Data & Integration Engineer — rôle transverse et stratégique, au cœur de la fiabilisation des données, de l'intégration applicative et de l'automatisation des processus. Vos missions : ? Data Engineering & Qualité des données (cœur du poste, ~70%) * Concevoir, développer et maintenir des pipelines ETL / ELT fiables et industrialisés * Assurer les transformations, validations et migrations de données dans le cadre des projets ERP * Mettre en œuvre les mécanismes de qualité : contrôles, règles de gestion, historisation, traçabilité * Garantir l'intégrité, l'unicité et la cohérence des référentiels de données (MDM / PIM) * Travailler sur des modèles relationnels et analytiques (étoile, snowflake) * Contribuer au dictionnaire de données et à la documentation fonctionnelle et technique ? Intégration & Interopérabilité (~15%) * Concevoir et opérer les flux inter-applications via des solutions EAI / iPaaS (n8n, Boomi ou équivalent) * Maintenir le catalogue de flux (SFTP, API REST, GraphQL) et en assurer la documentation * Tester et déboguer les API avec des outils dédiés (Postman ou équivalent) ? APIs & Services Data pour les métiers (~10%) * Exposer des API et services data sécurisés pour faciliter l'accès aux données d'entreprise * Permettre aux équipes de construire des POC, prototypes et cas d'usage IA rapidement * Veiller à la gouvernance, à la sécurité et à la traçabilité des accès aux données ? Automatisation & IA (~5%) * Développer ou intégrer des automatisations via scripts, workflows EAI ou solutions low-code / RPA * Contribuer à l'intégration de cas d'usage IA et aider à industrialiser les prototypes métiers Les compétences techniques * * SQL avancé — indispensable (transformations complexes, optimisation, gouvernance) * Solides bases en Data Engineering : pipelines, ETL/ELT, qualité et modélisation des données * Maîtrise des API REST ; GraphQL appréciée * Pratique de Git et sensibilité aux principes DevOps * Expérience ou forte appétence pour Go, Python ou Node.js * Familiarité avec les environnements cloud — idéalement Microsoft Azure (Functions, App Services, Logic Apps) * Connaissance ou intérêt pour les outils EAI / automatisation (n8n, Boomi ou équivalents) * Sensibilité aux enjeux d'urbanisation du SI et de gouvernance des données
Freelance

Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/la

WorldWide People
Publiée le
Data science

6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
CDI

Offre d'emploi
Actuaire - Data Scientist Mrh H/F

█ █ █ █ █ █ █
Publiée le
Git
Numpy
Ocaml

Suresnes, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
🔷 Mission de DSI à temps partagé — 2 jours / semaine

Tenth Revolution Group
Publiée le
Data Lake
Microsoft Fabric

12 mois
Lyon, Auvergne-Rhône-Alpes
Groupe industriel en croissance cherche un DSI à temps partagé. Lyon / multi-sites France + Pays-Bas — 8 entités — 50 M€ de CA — Contexte LBO. Les fondations SI sont posées : ✅ Sage X3 en production depuis 2024 ✅ OroCommerce déployé début 2025 ✅ Power BI avec Fabric et data lake en cours de structuration Le chantier reste ouvert : ▶ Migration M365 ▶ Réseau WAN groupe ▶ Consolidation des filiales encore sous Sage 100 / Cegid ▶ Facture électronique avant fin 2026 ▶ Cybersécurité ▶ Plan de continuité d'activité Le tout dans un contexte de build-up actif. Ce groupe a besoin d'un DSI qui sait travailler sans armée, qui parle aux DG comme aux équipes terrain, qui pilote des prestataires sans en dépendre, et qui rend l'IT lisible pour des décideurs non techniques.
Freelance

Mission freelance
Chef de projet Data - Lille

ICSIS
Publiée le
Méthode Agile

1 an
450-550 €
Lille, Hauts-de-France
La mission consiste à : Accompagner les interlocuteurs métier Piloter les projets de mise en place de flux Data Produire l'ensemble des livrables en accord avec la méthodologie Documenter et industrialiser Compétences attendues : Expériences significatives en chefferie de projet autour de la DATA Bonne maitrise technologique Pilotage de plusieurs projets simultanés Animation de réunions projets et suivi de plan d'action Animation d'acteurs internes et externes Mission basée sur la métropole lilloise avec télétravail partiel
Freelance

Mission freelance
ALSL - Expert Data Engineer GCP — Tilt Migration data

Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
IAM

3 mois
550-700 €
Paris, France
Expert Data Engineer GCP — Tilt Migration data Migration d'une dataplateforme legacy vers un socle full GCP pour un client. Vous portez spécifiquement la migration des pipelines, modèles et traitements data. Contexte plateforme data en binôme avec un autre expert GCP. Même niveau d'exigence, même capacité à tout couvrir, un partage des référents. Missions - Porter pipelines et modèles data legacy sur BigQuery / Dataplex, avec tests de parité et non-régression. - Arbitrer les politiques de partitioning, clustering, coûts BigQuery. - Écrire et compléter les modules Terraform du socle. - Contribuer aux DAG Composer et au cut-over sans double run. - Poser et transmettre les standards qualité data (fraîcheur, volumes, tests). Stack (maîtrise attendue sur l'ensemble) BigQuery, SQL avancé, Python, Terraform, GCS, IAM GCP, Airflow / Composer, Git, CI/CD. Exposure Dataplex, Mulesoft, Fivetran, dbt.
CDI

Offre d'emploi
Data Scientist H/F

FED SAS
Publiée le

42k-52k €
Apprieu, Auvergne-Rhône-Alpes
Fed IT, cabinet de recrutement dédié aux fonctions informatiques, recrute pour son client, cabinet de maîtrise d'œuvre et économie de la construction, un(e) Data Scientist H/F, pour accompagner sa croissance. Au sein d'une société de 60 personnes, vous arrivez en création de poste et rejoignez la "transformation digitale" (data et infrastructure). Rattaché(e) au directeur de l'équipe, vous : -Intervenez sur l'ensemble de la data du cabinet (maquettes 3D, mémoires techniques, cycle de vie des produits...), -Structurez et exploitez les données issues des différents métiers de l'entreprise, -Recueillez les besoins des utilisateurs et les traduisez en spécifications techniques, -Réalisez les extractions, transformations et intégrations des données (SQL, et via des ETL et API), -Mettez à disposition les KPI et autres outils d'aide à la décision (Power BI), -Développez des outils complémentaires via Python, -Proposez des méthodes d'automatisation de mise à disposition, stockage et échange de données, -Êtes partie prenante dans le choix des outils data et maintenez l'existant, Rémunération : 42 à 50 K€ bruts/an (fixe selon expérience) + 1 à 3 K€/an (intéressement possible) + 100 € nets/mois (forfait restauration) + forfait annuel lié à la mobilité douce + 1 jour de télétravail/semaine + 6 jours de RTT/an.
CDI

Offre d'emploi
CHANGE MANAGER BI / DATA – TRANSFORMATION DIGITALE H/F

Savane Consulting
Publiée le

Évry-Courcouronnes, Île-de-France
Contexte du poste : Dans le cadre d’un programme de transformation autour de la data et des usages BI, nous recherchons un Consultant Conduite du Changement afin d’accompagner un projet de migration vers Power BI Service, pour un acteur majeur du secteur industriel (aéronautique). Vous interviendrez au cœur des enjeux d’adoption et d’appropriation des nouveaux outils, avec une forte orientation métier et utilisateur. Votre rôle sera clé pour garantir la réussite de la transformation en sécurisant l’impact opérationnel et en facilitant l’adhésion des utilisateurs. Missions principales : Analyser et cartographier les usages ainsi que les impacts utilisateurs liés à la migration Définir et piloter la stratégie de conduite du changement (plan de communication, formation, accompagnement) Concevoir et déployer les supports de communication et de sensibilisation Produire les kits de formation (guides utilisateurs, tutoriels, FAQ) Animer des ateliers d’accompagnement et de formation auprès des métiers Assurer le suivi de la montée en compétence et de l’appropriation des nouveaux outils Piloter la gouvernance projet en support à la conduite du changement (planning, indicateurs, reporting) Coordonner les parties prenantes (IT, équipes BI, métiers, sécurité) Produire les livrables projet (roadmap, tableaux de bord, comptes rendus, reporting) Réaliser le bilan de fin de mission et formuler des recommandations
Freelance
CDI

Offre d'emploi
Ingénieur Systèmes Data

VISIAN
Publiée le
Ansible
SQL

1 an
Île-de-France, France
Missions Contrôle quotidien de la production (morning check) : En cas d’incident et/ou de retard sur les traitements et/ou les flux, s’assurer que les bonnes équipes prennent en charge le problème et que les entités sont informées dans les meilleurs délais. D’autres environnements peuvent être inclus dans cette supervision, mais la priorité reste la production. Suivi du cycle de vie des incidents de production avec les filiales, avec déclenchement d’escalade si nécessaire : Communication régulière auprès des entités pour assurer une bonne visibilité sur l’évolution des incidents. Support aux différentes équipes dans le diagnostic et la résolution des problèmes liés aux données. Préparation de rapports : incidents, événements majeurs, et propositions d’amélioration des tableaux de bord de supervision. Gestion des demandes d’infrastructure (bases de données, stockage, flux, ordonnancement, supervision, etc.) sur les différents environnements : Responsable du suivi des changements (monitoring, reporting, communication). Coordination des livraisons (toolchain CI/CD) pour les environnements de pré-production et de production, après validation des phases de test par les entités. Analyse des changements à effectuer en production et formulation de recommandations. Analyse et évaluation des incidents opérationnels afin d’optimiser les actions correctives et préventives des équipes filiales. Promotion d’une culture d’apprentissage continu et d’amélioration au sein de l’équipe. Outils IT Bonne connaissance de : Gestion des processus ITIL ServiceNow JIRA Maîtrise des éléments suivants : Logiciel Dremio (SQL) Monitoring & alerting : Dynatrace, ELK (Kibana, Grafana) Cycle de vie de développement logiciel (SDLC) Principes et rituels Agile Toolchain CI/CD (Gitlab, Jenkins, DBT…) Orchestrateurs : Autosys, Airflow, Reflections Unix (Shell) En option / appréciés : Réseaux de production (VIP, proxies, firewalls, micro-segmentation…) Outils de DataViz : Tableau, Power BI Stockage : HDFS, S3, Iceberg, Parquet
CDI

Offre d'emploi
Data architect / Administrateur SAP BO BI H/F

VIVERIS
Publiée le

40k-55k €
Dijon, Bourgogne-Franche-Comté
Contexte de la mission : Viveris accompagne les grands acteurs du secteur bancaire dans leurs programmes de transformation métier et IT, avec une forte dimension data et décisionnelle. Dans ce contexte, nous recherchons un Administrateur / Data Architect SAP BusinessObjects (SAP BO BI) pour intervenir sur un chantier stratégique de la Data Factory. Vous intégrerez l'équipe Solutions BI et participerez à l'administration, l'optimisation et l'évolution des plateformes décisionnelles basées sur SAP BO, au coeur des usages data des métiers. Votre rôle consistera notamment à garantir la performance, la disponibilité et la gouvernance des environnements BI, tout en accompagnant les équipes dans l'architecture et l'évolution des solutions décisionnelles. Ce poste vous permettra d'évoluer dans un écosystème data exigeant, sur des sujets à fort impact métier, aux côtés d'équipes expertes engagées dans la valorisation de la donnée. Responsabilités : * Assurer le suivi opérationnel des plateformes SAP BO BI 4.3 ;Prendre en charge l'assistance de niveau 2 et 3 des multiples plateformes SAP BO BI 4.3 ; * Proposer des solutions d'optimisation des rapports ; * Participer aux différents projets à venir de conversion des univers, de pointage des WebI vers ces univers, de migration à terme vers SAP BO BI 2025 ; * Faire évoluer l'outillage pour industrialiser la gestion des plateformes (Scripting, Datamart de supervision/audit).
Freelance
CDI

Offre d'emploi
Data Engineering DBT / SQL (430€)

BEEZEN
Publiée le
DBT

6 mois
40k-81k €
340-430 €
Lyon, Auvergne-Rhône-Alpes
● Maîtriser DataForm pour la transformation et l’orchestration des données. ● Travailler sur des environnements Data et Cloud, notamment GCP. ● Exploiter BigQuery et SQL avancé sur de gros volumes de données. ● Manipuler et analyser les données en SQL. ● Utiliser DataForm pour structurer les pipelines data. ● Gérer des fl ux temps réel avec Pub/Sub. ● Automatiser les workfl ows data via GitLab CI/CD et Docker Compose. ● Travailler sous Linux et en ligne de commande. ● Versionner le code avec Git. ● Collaborer en environnement agile (Scrum). - Expériences (au moins 2 ans) sur des projets intégrant DBT 1 JOUR SUR SITE
CDI

Offre d'emploi
Architecte Master Data Management F/H

COEXYA
Publiée le

50k-60k €
Saint-Didier-au-Mont-d'Or, Auvergne-Rhône-Alpes
CONTEXTE Dans le cadre de nos activités, nous développons pour nos clients des solutions dédiées à la gestion de la donnée cliente : améliorer la qualité de la donnée client à travers sa fiabilisation, son dédoublonnage et sa diffusion à travers un référentiel unifié. Pour accompagner la croissance de notre entité spécialisée dans la transformation digitale, nous recherchons notre futur Architecte MDM (Master Data Management) F/H. CE QUE L'ON VOUS PROPOSE Vous participez à la construction de l'offre MDM, en particulier sur les aspects techniques et technologiques. Vous intervenez sur les phases clés associées à la construction d'un projet de MDM, depuis l'avant-vente jusqu'à l'accompagnement des équipes de réalisation (4 à 6 consultants en moyenne selon projet) : - Vous concevez et préconisez les solutions techniques, - Vous menez des ateliers techniques avec les clients, - Vous intervenez sur différentes phases du projet depuis l'avant-vente jusqu'à leur utilisation en production - Vous encadrez les équipes techniques (accompagnement, transfert de compétences, audit des réalisations).
Freelance

Mission freelance
Expert SQL Sénior / Data Engineer DBT

Signe +
Publiée le
Google Cloud Platform (GCP)

5 mois
280-300 €
Lyon, Auvergne-Rhône-Alpes
🎯 MISSIONS Réaliser la data prep dans le cadre d'un projet d'automatisation des analyses récurrentes Contribuer à l'élaboration d'un cockpit de performance (data prep + data visualisation) Assurer le run quotidien : extraction, automatisation de livrables, création de reporting Renforcer le suivi de performance sur la partie non alimentaire Livrables attendus : Datasets sur BigQuery Classeurs Tableau Analyses + scripts pour le run quotidien 🛠️ ENVIRONNEMENT TECHNIQUE Cloud / Data : GCP, BigQuery Langages / Outils : SQL avancé (gros volumes), DBT Versioning : Git Méthode : Agile / Scrum 👤 PROFIL RECHERCHÉ Expert SQL Senior et/ou Data Engineer DBT confirmé Bac+5 informatique (école d'ingénieur ou université) ou équivalent 7 ans d'expérience minimum en Data Engineering DBT / SQL Expérience retail / grande distribution appréciée Bon communicant, autonome, esprit d'amélioration continue
Freelance

Mission freelance
Consultant SAP PP QM Data Migration

SAP-HIRE
Publiée le
SAP
SAP PP
SAP QM

9 mois
Paris, France
Nous recherchons un profil SAP PP QM sur la Data Migration pour renforcer un projet de migration vers SAP S/4. La mission consiste à Identifier et analyser des données à migrer (matériaux, nomenclatures, gammes, données qualité), mapper et définitir les règles de transformation, préparer et charger les données (LSMW / Migration Cockpit), contrôles qualité des données et gestion des incidents, participer aux phases de tests (SIT/UAT) et aux répétitions de migration (cutover). Vous aurez une expérience confirmée en migration de données SAP, une bonne compréhension des données PP & QM, serait autonome, rigoureux et orienté qualité des données. La mission doit se réaliser 3 jours sur site en IDF.
Freelance

Mission freelance
Développeur BOARD (H/F)

Nicholson SAS
Publiée le
Azure
Board
Data Lake

1 an
350 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Nous recherchons un Développeur BOARD pour intégrer des projets Data d'envergure. Vous interviendrez de la conception jusqu'au déploiement en production, tout en assurant un support de niveau 3. 📍 Modalités Lieu : Clermont-Ferrand (Hybride : 3 jours/semaine sur site) Date de début : 04/05/2026 Durée : Jusqu'au 03/05/2027 (renouvelable) Budget TJM : 350 € 🎯 Missions principales Conception et configuration d'applications via la solution BOARD. Accompagnement du cycle de vie : du développement jusqu'à la mise en production. Support L3 : support aux tests d’acceptation utilisateurs (UAT) et résolution d'incidents complexes. Communication : vulgarisation de concepts techniques auprès des métiers. 🛠 Compétences techniques Incontournables (Mandatory) : BOARD (Expertise outil) Ecosystème Data : Databricks, Azure Data Lake, Power BI Fondamentaux : Concepts BI, analyse de données. Langues : Anglais opérationnel. Souhaitées (Nice to have) : Méthodologie AGILE. Appétence pour l'analyse fonctionnelle (Business Analysis).
Alternance
CDI

Offre d'emploi
Alternance Assistant Analyste et Data H/F (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel

Carros, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

5900 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous