Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 660 résultats.
Freelance
CDI

Offre d'emploi
Développeur / Ingénieur Apache Camel (H/F)

OMICRONE
Publiée le
Apache
Docker
Kubernetes

2 ans
40k-45k €
400-450 €
Île-de-France, France
📢 Recherche – Développeur / Ingénieur Apache Camel (H/F) Dans le cadre de plusieurs projets d’intégration et de modernisation SI, nous recherchons des profils expérimentés Apache Camel pour intervenir sur des environnements techniques exigeants. 🔹 Missions Conception et développement de flux d’intégration avec Apache Camel Mise en place d’architectures ESB / microservices Intégration d’applications via API, messaging, systèmes distribués Participation à la résolution d’incidents et à l’optimisation des performances Collaboration avec les équipes architecture, data et métiers 🔹 Profil recherché Expérience significative sur Apache Camel Bonne maîtrise des patterns d’intégration (EIP) Connaissances en Java / Spring Boot Expérience sur des environnements API / messaging (Kafka, MQ, etc.) Capacité à intervenir en autonomie sur des sujets techniques complexes Anglais professionnel requis 🔹 Environnement technique (selon projets) Java, Spring Boot, Apache Camel Kafka / RabbitMQ / ActiveMQ REST APIs / Microservices Docker / Kubernetes Cloud (AWS / Azure) 🔹 Conditions 📍 Localisation : France 💼 Mission long terme 🚫 Non ouvert à la sous-traitance
CDI
Freelance

Offre d'emploi
data engineer AWS, Snowflake, SAP

LEVUP
Publiée le
AWS Glue
MySQL
Python

1 an
Liège, Belgique
Présence sur site 3j/semaine Mission Construire et maintenir des pipelines de données fiables et scalables sur AWS et Snowflake. Responsabilités Développer des pipelines ETL/ELT Participer à une intégration d'SAP Intégrer et transformer les données Modéliser les données (data warehouse) Optimiser les performances et les coûts Assurer la qualité des données (tests, monitoring) Orchestrer les workflows (Airflow ou équivalent) Collaborer avec les équipes data et métier Stack technique AWS (S3, Glue, Lambda, Redshift) SAP Snowflake SQL Python Airflow / dbt / Git Profil Expérience en data engineering Bonne maîtrise SQL et modélisation Expérience cloud (AWS) Autonomie, rigueur Bonus Docker CI/CD Expérience data lake / lakehouse
Freelance

Mission freelance
POT9104 - Un Senior Data Engineer Talend sur Vélizy-Villacoublay.

Almatek
Publiée le
SQL

6 mois
Vélizy-Villacoublay, Île-de-France
Almatek recherche pour l'un de ses clients Un Senior Data Engineer Talend sur Vélizy-Villacoublay. Contexte de la mission Dans le cadre du programme de Digital and Data Transformation du Groupe, a la charge de la conception, de la livraison et du cycle de vie des data products supportant les initiatives stratégiques data du Groupe. Le Senior Data Engineer interviendra sur la construction et l’évolution des plateformes et pipelines data, la transformation de données brutes en données à forte valeur ajoutée, ainsi que l’amélioration continue des actifs data, en collaboration avec des équipes internationales. Environnement Technique Data Engineering & Architecture • ETL : Talend, SSIS, Azure Data Factory (ADF) • Bases de données & requêtage : Microsoft SQL Server, SQL avancé • Modélisation : Data Warehouses, Data Marts, Data Cubes • Transformation data : dbt • Architecture moderne : Medallion Architecture • Moteurs distribués : Trino (ou équivalent) • Stockage objet : MinIO (ou équivalent) • Data Lake & ingestion via APIs, fichiers, flux batch Microsoft Stack • SQL Server Database Engine • SSIS, SSAS • Power BI Reporting Services (PBIRS) • Langages : SQL, DAX, MDX • Optimisation des performances et tuning avancé Cloud & Bonus • Nice to have : GCP (BigQuery, GCS, Dataproc) CI/CD & Industrialisation • Pipelines CI/CD automatisés • Azure DevOps, GitLab • Déploiement, intégration continue, tests automatisés • Qualité de code, orchestration, build & release automation
Freelance
CDI

Offre d'emploi
Data Engineer

VISIAN
Publiée le
Apache Hive
Apache Spark
Hadoop

1 an
45k-58k €
400-550 €
Paris, France
Le datalake est utilisé comme une data plateforme pour les équipes IT et métiers. L'objectif de la mission est d'assurer le rôle de Data Engineer de ce datalake : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : Acheminement de la donnée Mise à disposition de la donnée aux équipes utilisatrices Mise en production de modèles statistiques Suivi de projet de développement Développement job spark Traitement et ingestion de plusieurs formats des données Développement des scripts Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données Développement des moyens de restitution via génération de fichier et ou API & Dashboarding Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP Participer à la conception, mise en place et administration de solutions Big Data Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Freelance

Mission freelance
Chef de projet Transverse Data/Reporting/Integration Layer/Référentiels

CRYSTAL PLACEMENT
Publiée le
SAP

12 mois
400-790 €
Roissy-en-France, Île-de-France
Dans le cadre d’un programme stratégique de transformation Data, nous recherchons un Chef de Projet Data transverse afin de piloter des sujets critiques liés à la Data, au Reporting, aux flux d’intégration et aux référentiels. Mission Vous interviendrez sur un rôle transverse visant à coordonner et sécuriser la livraison des activités Data & Reporting, tout en pilotant les flux d’intégration et les dépendances entre plusieurs streams projet. Vous serez également responsable de l’orchestration d’une roadmap Data sur le chemin critique du programme, en collaboration avec les équipes métiers et IT. Responsabilités Pilotage des structures de données, référentiels et sujets MDM Coordination des activités Data & Reporting (prérequis, mapping, qualité des données) Priorisation des besoins Reporting avec les équipes métiers Suivi des flux d’intégration (API / Integration Layer / environnement Cloud) et gestion des risques associés Coordination transverse avec les différentes équipes projets Gestion des dépendances multi-streams Animation de la gouvernance projet et consolidation des plannings
Freelance

Mission freelance
AI Prompt Engineer

Phaidon London- Glocomms
Publiée le
AI
Data science
Finance

6 mois
400-550 £GB
Bordeaux, Nouvelle-Aquitaine
Conception et optimisation des invites Concevoir, améliorer et maintenir des invites de haute qualité (système, instructions, exemples, etc.). Développer des stratégies d'invites avancées : enchaînement de pensées, interactions multiples, routage, utilisation d'outils. Créer et gérer un référentiel d'invites standardisées pour les principaux cas d'usage du secteur bancaire. Intégration aux produits Collaborer avec les équipes Données et Informatique pour intégrer des invites optimisées aux assistants conversationnels. Gérer le versionnage et le suivi du cycle de vie des invites. Accompagner les équipes métiers dans la définition de leurs besoins et l'identification des cas d'usage d'IA à forte valeur ajoutée. Évaluation et assurance qualité Mettre en œuvre des cadres de test robustes : analyse comparative, analyse des hallucinations, contrôles de précision. Réaliser des tests A/B et mettre en place des outils d'évaluation semi-supervisée. Surveiller et améliorer en continu les performances conversationnelles. Conformité, Sécurité et Gouvernance Garantir la conformité aux exigences réglementaires (secteur bancaire, RGPD, loi sur l'IA). Créer et diffuser des bonnes pratiques pour les équipes métiers.
Freelance

Mission freelance
Data Analyst (Snowflake - Power BI - SQL)

Cherry Pick
Publiée le
Microsoft Power BI
Snowflake
SQL

12 mois
500-580 €
Paris, France
Contexte de la Mission Dans le cadre de sa transition BI et de l’harmonisation de ses outils de pilotage, l’entreprise recherche un Data Analyst Confirmé pour renforcer ses équipes. La mission s'inscrit dans une volonté d'industrialiser, d'uniformiser et d'automatiser les données ainsi que les rapports de suivi, notamment pour le pilotage de la DNV. Durée : 8 mois (de mai à décembre 2026). Équipe : Intégration d'une squad au sein de l'équipe Data Analyst, aux côtés de deux Data Analysts déjà en poste sur ce domaine. Localisation : Poste basé à Antony Télétravail : 1 jour fixe par semaine Missions Principales Le consultant sera chargé de transformer la donnée brute en produits data exploitables pour les directions métiers (Sales/Business) : Architecture de données : Conception de datamarts sur des vues complexes et migration de l’ensemble des datasets/dataflows existants vers ces nouveaux datamarts. Normalisation : Nettoyage et normalisation des données sources, principalement issues de Salesforce, pour garantir la cohérence du catalogue de données. Dataviz & Pilotage : Conception, mise à jour et diffusion de tableaux de bord sous Power BI pour le pilotage de l'activité business. Optimisation : Industrialisation et automatisation de rapports manuels ou existants.
Freelance

Mission freelance
Développeur Full Stack orienté Frontend (React / Data Applications)

█ █ █ █ █ █ █
Publiée le
DevOps
Docker
Javascript

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Architecte Data & IA – Plateforme & Socle

VISIAN
Publiée le
Azure
Azure DevOps
Databricks

1 an
400-550 €
Île-de-France, France
L’Architecte Data & IA intervient comme référent sur les choix techniques, la cohérence des architectures et l’industrialisation des usages Data/IA. Missions principales 1. Architecture & gouvernance technique Concevoir et maintenir les architectures cibles Data & IA (MLOps, LLMOps, DataOps) Garantir la cohérence globale de la plateforme Data & IA Contribuer à la mise en œuvre d’une gouvernance unifiée des données (sécurité, traçabilité, lineage) Superviser l’intégration et l’évolution d’une plateforme Data Lakehouse (type Databricks) Participer à l’évolution de l’offre de service du socle Data & IA 2. Industrialisation IA & MLOps Structurer les pratiques MLOps / LLMOps (CI/CD, monitoring, automatisation) Accompagner les équipes dans la mise en œuvre des bonnes pratiques DataOps et ML Garantir la fiabilité des pipelines de production IA Participer à la standardisation des modèles de déploiement IA 3. Innovation & plateforme IA Préparer la plateforme pour les usages d’IA générative et agentique Concevoir des architectures d’intégration pour les modèles LLM (internes et externes) Développer des approches AI by Design (conformité, sécurité, gouvernance) Contribuer aux initiatives d’innovation (observabilité IA, optimisation des coûts, temps réel) 4. Accompagnement & montée en compétences Encadrer les équipes DataOps et MLOps Diffuser les bonnes pratiques d’architecture et d’industrialisation Accompagner la montée en maturité sur les outils Data & IA Travailler en collaboration avec les équipes Data et Delivery Livrables attendus Architecture cible Data & IA unifiée Framework MLOps / LLMOps industrialisé (CI/CD, observabilité, MLFlow…) Guide de bonnes pratiques DataOps Tableau de bord de suivi de maturité IA / ML Recommandations d’évolution de la gouvernance Data & IA
CDI
Freelance

Offre d'emploi
Data Scientist (parlant Japonais ou Coréen)

OBJECTWARE
Publiée le
Large Language Model (LLM)
Natural Language Processing (NLP)
RAG

3 ans
40k-86k €
380-610 €
Île-de-France, France
Mission Concevoir et optimiser des systèmes de recherche intelligente basés sur l’IA générative (RAG) pour un SaaS métier, afin d’améliorer l’accès à l’information et la fiabilité des réponses. 🚀 Responsabilités Développer des pipelines RAG (embeddings, vector search, ranking) Optimiser la pertinence des résultats (precision, recall, MRR) Réduire les hallucinations des LLM Concevoir des architectures multi-agents via Semantic Kernel Industrialiser les modèles (API, intégration backend) 🧰 Stack IA : LLM, NLP, RAG, embeddings Cloud : Azure OpenAI Service Data : Azure Cosmos DB Backend : .NET 8, SignalR Front : React 5+ ans en Data Science / ML Expertise NLP / recherche sémantique Expérience en IA générative (RAG, LLM)
Freelance

Mission freelance
Consultant Jira H/F

HAYS France
Publiée le
Agile Scrum
Cloud
Data Center

1 an
Île-de-France, France
Dans le cadre d’une transformation globale de l’ingénierie , un grand groupe industriel international déploie des Environnements d’Ingénierie standardisés , combinant processus, outils et infrastructures fournis sous forme de services mutualisés. Jira constitue la solution centrale de gestion des projets, des activités d’ingénierie et des backlogs Agile au sein de ces environnements. Il est fortement intégré à un écosystème d’outils de développement, d’intégration continue, de gestion de configuration et de validation (outils de gestion du code source, solutions IVV, reporting avancé, checklists opérationnelles, etc.). Cependant, la coexistence de multiples instances Jira hétérogènes au sein du groupe génère : des écarts de pratiques et de configurations, des niveaux de service variables, une complexité accrue de maintenance, des surcoûts et une dette technique significative. L’objectif de la mission est d’accompagner la migration progressive des projets vers une solution Jira cible standardisée (JFE – Jira For Engineers) , afin de garantir cohérence, performance, maintenabilité et une expérience utilisateur unifiée pour l’ensemble des entités. 2. Objectifs de la mission Le prestataire aura pour objectifs de : Définir et piloter une stratégie industrielle de migration Jira vers la solution cible JFE Accompagner les projets dans leur transition tout en garantissant la continuité opérationnelle Sécuriser les migrations de données et la conformité fonctionnelle des environnements Favoriser l’adoption des standards JFE via une conduite du changement structurée Contribuer à la standardisation durable des pratiques de gestion de projet et d’ingénierie 3. Périmètre des prestations3.1 Construction de l’offre de service « Migration Jira vers JFE » Définition d’une offre de migration clé en main Formalisation des processus de migration, jalons et responsabilités Définition de scénarios de migration selon la taille et la complexité des projets Définition des niveaux de service (support, accompagnement, expertise) 3.2 Stratégie, gouvernance et planification Définition de la stratégie globale de migration alignée sur les standards JFE Identification des prérequis techniques, fonctionnels et organisationnels Qualification de l’éligibilité des projets Planification et orchestration des vagues de migration (petits, moyens, grands projets) Coordination des parties prenantes (équipes projets, support ingénierie, administrateurs Jira, responsables outils) Définition des critères de succès, indicateurs de performance et conditions d’acceptation 3.3 Exécution des migrations Jira Réalisation des migrations de données Jira : tickets (issues), historiques et workflows, liens et dépendances, pièces jointes et commentaires Garantie de l’intégrité des données, de la traçabilité et de la continuité fonctionnelle Réalisation de migrations à blanc (dry runs) et validation sur projets pilotes Mise en œuvre de plans de gestion des risques et procédures de retour arrière (rollback) Validation fonctionnelle et technique post-migration 3.4 Support, adoption et conduite du changement Support technique avant, pendant et après les migrations Accompagnement des équipes projets dans l’adoption des pratiques JFE Production des livrables suivants : documentation fonctionnelle et technique, guides utilisateurs et administrateurs, playbooks de migration Contribution à l’onboarding des utilisateurs et au transfert de compétences Accompagnement à l’exploitation des outils de reporting et de pilotage de la performance 4. Livrables attendus Stratégie globale de migration Jira → JFE Dossiers de migration par projet Playbooks et guides méthodologiques Tableaux de bord de pilotage et indicateurs de réussite Documentation d’exploitation et de support Dossier de transfert de compétences
CDI

Offre d'emploi
Product Owner - Intégrations & Plateforme SaaS F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Figma
JIRA
Scrum

Bordeaux, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
TOULOUSE - Expert Réseau & Sécurité -Fortinet / Automatisation

CAT-AMANIA
Publiée le
Ansible
F5
Fortinet

3 ans
400-440 €
Toulouse, Occitanie
Description du poste Dans le cadre du renforcement des équipes infrastructures, tu interviens en tant qu’ expert Fortinet au sein d’environnements datacenter critiques . L’équipe est en charge de la gestion des infrastructures de sécurité (hors gestion des politiques de sécurité), avec un fort enjeu de disponibilité et d’automatisation . Tes missions principales : Administrer et maintenir les infrastructures Fortinet en environnement build & run Participer au design et à l’évolution des architectures de sécurité Mettre en place et améliorer les processus d’ automatisation des infrastructures Contribuer au maintien en condition opérationnelle des plateformes de sécurité Assurer le support N3 sur les incidents complexes Participer à l’intégration des solutions de sécurité dans l’ écosystème réseau global Intervenir sur des environnements de production critiques avec des exigences fortes de disponibilité et de performance Participer aux astreintes, permanences et opérations en heures non ouvrées
Freelance

Mission freelance
Data Engineer Confirmé – Environnement industriel (H/F)

Pickmeup
Publiée le
Dataiku
Numpy
Pandas

2 ans
350-370 €
Saint-Paul-Trois-Châteaux, Auvergne-Rhône-Alpes
Missions principalesConception et architecture des solutions data Concevoir et développer des pipelines de données robustes pour des environnements industriels. Cartographier et documenter les sources de données . Concevoir des solutions permettant le traitement de volumes importants de données . Définir la structure des bases de données et des métadonnées . Participer à la mise en place et à l’évolution d’un Data Lake . Intégration et gestion des données Collecter et intégrer des données provenant de sources multiples (applications, capteurs industriels, systèmes externes) . Garantir la qualité, la sécurité et la fiabilité des données . Mettre en place des mécanismes de contrôle, nettoyage et validation des données . Assurer la supervision et la maintenance des pipelines de données en production. Collaboration et animation Collaborer avec les équipes métier et IT afin de comprendre les besoins en données. Participer à l’animation de la communauté technique autour des sujets data . Contribuer à la veille technologique sur les solutions data et proposer des améliorations. Livrables attendus Dossier de spécification et d’architecture des solutions data mises en œuvre. Catalogues et cartographie des données . Mise en place d’un Data Lake adapté aux besoins métier . Documentation et outils permettant de garantir la qualité des données .
Freelance

Mission freelance
Machine Learning Engineer – MLOps & Plateforme Data/IA

ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)

3 ans
Lille, Hauts-de-France
🎯 Contexte Dans le cadre du développement d’une plateforme Data & IA à l’échelle internationale , un acteur majeur renforce ses équipes afin de structurer et industrialiser ses pratiques MLOps . L’objectif est de faciliter le déploiement, l’exploitation et la scalabilité des modèles de machine learning, tout en garantissant leur intégration fluide au sein des produits digitaux. Vous interviendrez dans un environnement moderne, orienté cloud, automatisation et intelligence artificielle , incluant des cas d’usage avancés autour de l’IA générative. 🧩 Mission En tant que Machine Learning Engineer , vous accompagnez la mise en œuvre et la montée en maturité des pratiques MLOps, depuis la conception jusqu’à la mise en production des modèles. Vous intervenez sur l’ensemble du cycle de vie des applications ML, avec une forte dimension industrialisation, automatisation et performance . 🚀 Responsabilités principales1. Déploiement et exploitation des modèles ML Mettre en production des modèles de machine learning Assurer leur disponibilité, leur performance et leur fiabilité Intégrer les solutions ML dans les produits digitaux 2. Data engineering & pipelines Collecter, nettoyer et structurer les données Concevoir et orchestrer des pipelines de données Garantir la qualité et la gouvernance des données 3. MLOps & automatisation Mettre en place des pipelines CI/CD pour les modèles ML Automatiser les déploiements et les mises à jour Industrialiser les processus de développement et d’exploitation 4. Monitoring & performance Développer des outils de monitoring des modèles (performance, dérive, disponibilité) Mettre en place des indicateurs de suivi Assurer la robustesse et la résilience des solutions 5. Contribution technique & innovation Participer aux choix techniques et d’architecture Contribuer à l’adoption de pratiques avancées (MLOps, LLMOps) Être force de proposition sur les évolutions technologiques 📦 Livrables attendus Pipelines de données et de déploiement industrialisés Modèles ML déployés en production Outils de monitoring et de supervision Documentation technique Amélioration continue des pratiques MLOps 📅 Modalités Démarrage : ASAP Rythme : temps plein Organisation : agile 🎯 Objectif Industrialiser et faire évoluer les pratiques MLOps afin de garantir des solutions ML robustes, scalables et intégrées , au service des produits digitaux et des usages métiers.
Freelance

Mission freelance
Expert Réseau & Sécurité – Fortinet / Automatisation (H/F)

Freelance.com
Publiée le
Ansible
F5
Fortinet

1 an
450-500 €
Toulouse, Occitanie
Dans le cadre d’un renforcement d’équipe, nous recherchons un Expert Réseau & Sécurité pour une mission longue durée au sein d’un environnement Datacenter critique à forte exigence de disponibilité et de performance. Il s’agit d’un poste orienté infrastructures de sécurité (build, run, design, automatisation) — hors gestion des politiques de sécurité. Vos missions Au sein d’une équipe experte, vous interviendrez sur : Build / Run / Design Expertise N3 sur Firewalls Fortinet (architecture, déploiement, MCO, troubleshooting avancé) Automatisation des infrastructures (playbooks, pipelines, industrialisation) Intégration des infrastructures de sécurité dans un écosystème réseau complexe Contribution aux évolutions d’architecture Maintien en Conditions Opérationnelles Supervision et traitement des incidents/problèmes Gestion des changements et opérations HNO Participation aux astreintes (≈ 1/semaine par trimestre) Permanences hebdomadaires Gouvernance & Amélioration Continue Application et contrôle des standards de sécurité Participation aux audits internes / externes Mise en conformité et suivi des recommandations Rédaction de guides et standards Veille technologique & propositions d’optimisation (performance, qualité, coûts)

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

660 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous