Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 474 résultats.
Freelance

Mission freelance
Consultant Python (Software Engineer Applied) PostgreSQL - AWS - Airflow

Celexio
Publiée le
AWS Cloud
Bash
CI/CD

6 mois
400-600 €
Paris, France
Dans le cadre d'une migration de GCP à AWS, nous recherchons un ingénieur cloud senior pour accompagner ntore client. Voici les missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles. Industrialiser les prototypes de recherche de l'équipe en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production , y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure. Garantir la qualité, la fiabilité et la reproductibilité des données à travers les pipelines et les services. Travailler en étroite collaboration avec les économistes, les scientifiques et les Ingénieurs Ops pour assurer la livraison fluide de nouveaux indicateurs et modèles en production. Améliorer l'expérience développeur, la documentation et les outils internes pour rendre les systèmes plus faciles à exploiter et à maintenir.
Freelance
CDI

Offre d'emploi
Staff Engineer Python - Telecom - Paris H/F

EASY PARTNER
Publiée le
FastAPI
Python
SQL

12 mois
70k-90k €
550-650 €
Paris, France
Missions Principales Prendre le leadership technique du backend de notre système d'information. Comprendre et optimiser les processus métiers complexes comme la facturation tierce et le raccordement à la fibre. Définir et piloter avec l'équipe l'architecture de notre système distribué. S'engager dans du développement "hands on" avec Python et assurer la qualité et résilience du code. Annexes Initier et renforcer les bonnes pratiques de développement et de mise en production. Proposer et implémenter des méthodes d’exploitation qui permettront aux équipes de développement d’opérer efficacement en production.
CDI
Freelance

Offre d'emploi
Lead Data Engineer Dataiku & Python

OBJECTWARE
Publiée le
Dataiku
Python

3 ans
40k-79k €
400-550 €
Île-de-France, France
Prestations demandées RESPONSABILITES - Conception et implémentation des pipelines de données : • Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). • Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. • Travailler avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. - Industrialisation et automatisation des flux de données et des traitements : • Mettre en place des processus d’industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. • Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. • Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l’exploration à la production, en intégrant les modèles dans des pipelines automatisés. - Gestion des données et optimisation des performances : • Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d’architecture de stockage (raw, refined, trusted layers). • Assurer une surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l’intégrité des jeux de données. - Sécurité et gouvernance des données : • Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. • Travailler en collaboration avec le Data Office pour assurer l’alignement avec les politiques et processus définis. • Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées. COMPETENCES - Expérience confirmée en ingénierie des données : Solide expérience dans la conception, la mise en œuvre et l’optimisation de pipelines de données. - Maîtrise des technologies de traitement de données : Expertise dans l’utilisation d’outils et technologies tels que ELT, Spark, SQL, Python, Dataiku, et la gestion de data warehouses et data hubs. - Compétence en sécurité et gouvernance des données : Connaissance des enjeux de sécurité, de conformité réglementaire (GDPR), et de gouvernance des données, avec une capacité à implémenter des solutions adéquates. - Compétences en automatisation et industrialisation : Capacité à automatiser et industrialiser les flux de données et les traitements afférents, en assurant la transition fluide des projets data science vers la production. - Maîtrise de l’anglais : La maîtrise de l’anglais est indispensable pour interagir avec des parties prenantes
Freelance

Mission freelance
Data Engineer Confirmé – Environnement industriel (H/F)

Pickmeup
Publiée le
Dataiku
Numpy
Pandas

2 ans
350-370 €
Saint-Paul-Trois-Châteaux, Auvergne-Rhône-Alpes
Missions principalesConception et architecture des solutions data Concevoir et développer des pipelines de données robustes pour des environnements industriels. Cartographier et documenter les sources de données . Concevoir des solutions permettant le traitement de volumes importants de données . Définir la structure des bases de données et des métadonnées . Participer à la mise en place et à l’évolution d’un Data Lake . Intégration et gestion des données Collecter et intégrer des données provenant de sources multiples (applications, capteurs industriels, systèmes externes) . Garantir la qualité, la sécurité et la fiabilité des données . Mettre en place des mécanismes de contrôle, nettoyage et validation des données . Assurer la supervision et la maintenance des pipelines de données en production. Collaboration et animation Collaborer avec les équipes métier et IT afin de comprendre les besoins en données. Participer à l’animation de la communauté technique autour des sujets data . Contribuer à la veille technologique sur les solutions data et proposer des améliorations. Livrables attendus Dossier de spécification et d’architecture des solutions data mises en œuvre. Catalogues et cartographie des données . Mise en place d’un Data Lake adapté aux besoins métier . Documentation et outils permettant de garantir la qualité des données .
Freelance

Mission freelance
101528/Data Engineer Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell NANTES

WorldWide People
Publiée le
Semarchy

12 mois
360-390 €
Nantes, Pays de la Loire
Data Engineer Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell NANTES 04/05/2026 1 an Nantes ( 2 jours de télétravail) Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell Build: conception et développement de nouvelles solutions socle data Run: MCO et optimisation continue Migration : Accompagnement des transitions techniques et fonctionnelles Développer des traitements ELT xDI Développer et maintenir des templates xDI Participer à la définition de la feuille de route technique de la migration ETL Datastage vers ELT xDI Nous recherchons un data engineer confirmé. La maitrise de Semarchy xDi, SQL et GitLab CICD est nécessaire.
Freelance

Mission freelance
Software Engineer (H/F) – Python Backend / GenAI / GCP

HOXTON PARTNERS
Publiée le
API REST
GenAI
Google Cloud Platform (GCP)

12 mois
Paris, France
Dans le cadre du renforcement d’une plateforme applicative innovante orientée IA générative, nous recherchons un Software Engineer disposant d’une expertise poussée en développement backend Python et en intégration de services GenAI au sein d’environnements cloud modernes. La mission s’inscrit dans un contexte de développement et d’industrialisation de la couche applicative IA, avec un fort niveau d’exigence sur la qualité logicielle, la scalabilité, la sécurité, la performance et l’intégration dans une architecture existante orientée microservices. Le consultant interviendra sur la conception, le développement et l’évolution de services backend exposés via API, avec un enjeu important autour de l’intégration de composants IA avancés, de la gestion des problématiques synchrones / asynchrones, ainsi que de l’évolution du socle agentique, notamment dans le cadre d’une migration de LangChain vers un framework Google. Responsabilités Concevoir, développer et faire évoluer des microservices backend en Python Exposer des APIs via FastAPI Développer des services robustes en environnement synchrone et asynchrone Concevoir et maintenir des APIs REST performantes et sécurisées Structurer les modèles de données avec Pydantic v2 Intégrer des services IA / GenAI dans l’architecture applicative existante Participer à la conception et à l’orchestration d’architectures microservices Contribuer à la migration et à la rationalisation du framework agentique (transition depuis LangChain vers un framework Google) Intégrer des LLMs via Vertex AI, OpenAI ou Anthropic Mettre en œuvre les bonnes pratiques de sécurité (authentification, validation, filtrage de contenu) Optimiser les performances (haut débit, faible latence) Participer à l’industrialisation des développements (CI/CD, cloud-native)
Freelance

Mission freelance
SENIOR DATA AND AI ENGINEER

CAT-AMANIA
Publiée le
Azure DevOps
CI/CD
Data Lake

1 an
100-390 €
Villeneuve-d'Ascq, Hauts-de-France
Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Mission 􋰄 Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). 􋰄 Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. 􋰄 Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. 􋰄 Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). 􋰄 Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. 􋰄 Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards.
Freelance

Mission freelance
Senior Data Engineer AWS

Celexio
Publiée le
PySpark
Python
Terraform

3 mois
400-550 €
Paris, France
Nous recherchons un Lead Data Engineer chevronné pour rejoindre un acteur majeur de la Tech Parisienne. Au sein d'une équipe dynamique, votre mission sera de piloter l'acquisition de données à grande échelle et d'orchestrer une migration technologique stratégique. Votre Mission En tant que garant technique de l'acquisition de données, vous intervenez sur l'ensemble de la chaîne de valeur, du cleaning à l'enrichissement. Vos responsabilités principales incluent : Architecture & Design : Concevoir et refondre des pipelines de données robustes dans le cadre d'une migration majeure de GCP vers AWS. Ingestion Massive : Gérer l'ingestion de types de données variés (Listing, etc.) et assurer leur qualité. Optimisation : Assurer le nettoyage et l'enrichissement des données pour les rendre exploitables par les équipes consommatrices. Snowflake : Exposer les données de manière optimale. Compétences Techniques Requises Cloud : Maîtrise avancée de l'écosystème AWS (tous services) et idéalement une expérience de migration depuis GCP. Data Processing : Expertise sur Spark / PySpark pour le traitement de données volumineuses. Infrastructure : Solides compétences en Terraform (IaC). Langages : Maîtrise de Python. Data : Connaissance de Snowflake pour la partie consommation.
Freelance

Mission freelance
AI Engineer GCP

Groupe Aptenia
Publiée le
Google Cloud Platform (GCP)
MCP
Python

1 an
550-600 €
Île-de-France, France
Nous sommes à la recherche d'un AI Engineer GCP pour rejoindre une équipe backend experte, votre mission : développer de nouvelles features, optimiser l’existant... L'expertise en software development, notamment backend (Python) et connaissance de GCP (expérience concrète) est primordial pour cette mission. 🎯 Vos missions clés ✅ Développer et améliorer le backend des agents IA (création, nouvelles features). ✅ Optimiser l’infrastructure GCP (Cloud Run, Terraform). ✅ Collaborer avec une équipe passionnée de code et d’IA (MCP, LLM). ✅ Scalabiliser un produit SaaS à forte audience.
Freelance

Mission freelance
Software Engineer Python – Agentic AI (x2) H/F

LeHibou
Publiée le
Python

12 mois
700-770 €
Saint-Denis, Île-de-France
Notre client dans le secteur Assurance recherche un/une Software Engineer – Agentic AI (x2)H/F Description de la mission: Dans le cadre du lancement d’un programme stratégique autour de l’intelligence artificielle, notre client initie un projet visant à concevoir une architecture d’agents IA capables d’automatiser différentes étapes du cycle de valeur de l’assurance. Une première phase d’audit est actuellement menée par une ESN afin de définir l’architecture cible. La phase suivante consistera à concevoir et développer les agents ainsi que le framework technique associé. Les consultants interviendront sur la conception et le développement d’agents IA, la construction d’un framework interne d’orchestration et l’intégration de ces agents dans l’écosystème IT existant. Ils participeront également à la définition du nombre et du rôle des agents, à l’orchestration entre les différents composants ainsi qu’à l’industrialisation de la solution.
Freelance

Mission freelance
Data Engineer - IA (Bordeaux)

Cherry Pick
Publiée le
Agent IA
Apache Kafka
DBT

12 mois
390-400 €
Bordeaux, Nouvelle-Aquitaine
Intégré à la DSI au sein de l’équipe Data Tech Knowledge de la direction IT DATA de notre client à Bordeaux , le Data Engineer participera à des projets autour de l’IA et de la data. La mission consiste à : Effectuer des alimentations de données . Collaborer avec un Data Analyst sur des projets IA/Data. Développer et travailler autour d’ agents IA pour le requetage SQL en langage naturel . Mettre à disposition des outils d’aide au développement et au monitoring . Assurer une veille technologique sur les architectures data et outils associés. Stack Technique : Langages : Python, SQL Bases de données : Snowflake, SQL Server, PostgreSQL DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend Data Visualisation : PowerBI
Freelance

Mission freelance
POT8993 - Un Software Engineer Fullstack sur Issy-les-Moulineaux.

Almatek
Publiée le
React

6 mois
Issy-les-Moulineaux, Île-de-France
Almatek recherche pour l'un de ses clients Un Software Engineer Fullstack sur Issy-les-Moulineaux. Contexte et objectifs Le client développe et industrialise les nouveaux cas d’usage en Intelligence Artificielle pour l’ensemble du groupe. Le Software Engineer Fullstack interviendra dans un environnement exigeant, combinant IA, ingénierie logicielle avancée, qualité, sécurité et performance. L’objectif de la mission : concevoir et implémenter l’architecture technique des solutions logicielles, accompagner les équipes internes (software engineers, data scientists), renforcer la maturité des pratiques de développement et l’écosystème CI/CD, contribuer à la mise en production et au maintien en conditions opérationnelles et de sécurité. Rôle et responsabilités 1. Conception & Développement Fullstack Concevoir et développer les composants logiciels backend et frontend. Implémenter les solutions dans un cadre agile, en respectant les contraintes d’architecture et de sécurité. Intégrer les composants dans les environnements Kubernetes cibles. 2. Intégration & Production Assurer l’intégration avec la cible de production. Participer à la définition du MCO/MCS (durcissement, sécurité, surveillance). Contribuer à l’optimisation, la qualité et la performance des solutions. 3. Qualité logicielle et bonnes pratiques Mettre en œuvre et promouvoir les pratiques : TDD, BDD, DDD, clean code, pair programming. Contribuer à la qualité logicielle via tests, revues de code, pipelines CI/CD. Participer à l’amélioration continue de la chaîne d’ingénierie. 4. Collaboration & documentation Travailler étroitement avec les ingénieurs, data scientists et architectes. Documenter l’architecture, les spécifications techniques et les décisions d’ingénierie. Contribuer à la communauté de pratique interne.
CDI
Freelance

Offre d'emploi
AWS Platform Engineer

Ela Technology
Publiée le
AWS Cloud
Méthode Agile

6 mois
40k-45k €
300-380 €
Paris, France
Au sein d’une squad Data & Analytics Platform, vous contribuerez à la construction, l’évolution et la fiabilisation des environnements Cloud. Vous interviendrez notamment sur : (2 ans d'expérience minimum) Le développement, la mise à jour et la maintenance du code infrastructure Terraform dans Azure et/ou AWS, en respectant les standards sécurité. L’enrichissement de la documentation à destination des utilisateurs. La conception et la maintenance de chaînes de déploiement automatisé (CI/CD). Français & Anglais
Freelance

Mission freelance
Data Engineer - IA Gen

VISIAN
Publiée le
FastAPI
IA Générative
Large Language Model (LLM)

1 an
400-550 €
Paris, France
Afin de mener à bien notre mission l’équipe est composée de Data Engineer, de Data Scientist, de développeurs Python et d’un data analyst. L’équipe se veut jeune dynamique, motivée et très pro-active, l’entraide et la bonne ambiance sont présentes. Le candidat devra donc avoir la personnalité permettant de conserver cette dynamique intacte. Les softs skills sont donc autant essentielles que la technique : bon communiquant, motivé, force de proposition et sociable. La mission : Un programme visant à traiter l’ensemble des uses cases nécessitant l’utilisation d’IA à destination de la Finance a été lancé. Dans le cadre de notre activité nous avons pour mission d’accompagner la phase de cadrage faite par les Product Owner et d’implémenter des solutions adaptées aux besoins exprimés. Pour se faire nous cherchons à renforcer l’équipe actuelle constituée de développeur Full stack (Python\Angular) de data engineer et de data scientist avec un Data Engineer possédant de bonnes compétences en IA générative. La mission principale du profil retenu sera : Concevoir et développer des solutions de traitement de données complexes Implémenter solutions exploitant des modèles d'IA générative Participer à la mise en place de prompts et de RAG Collaborer étroitement avec les Product owner, les autres membres de l’équipe et d’autres DSI afin garantir l'efficacité et la fiabilité des solutions mises en œuvre. Si vous êtes passionné par les défis liés à la manipulation de données non structurées, que vous maîtrisez le Python et que vous avez une solide expérience en Data Engineering et en Ia générative, nous serions ravis de recevoir votre candidature. L’environnement de travail se veut stimulant, il offre des opportunités d'apprentissage continu et des projets innovants au sein d'une équipe dynamique et passionnée par les technologies émergentes. Durant votre intervention vous serez rattaché au responsable de l’équipe de développements tactiques et vous serez supervisé par un membre de l’équipe maitrisant les outils de data science. Vous serez fréquemment au contact du métier, des équipes innovation et d’autres développeurs.
CDI
Freelance

Offre d'emploi
M365 Identity et Infrastructure Engineer (Expert Run/Build)

NEWRAMA
Publiée le
Active Directory
Microsoft Entra ID
Office 365

3 ans
Paris, France
Focus : Identité Hybride & Sécurisation Responsabilités Gestion des Identités : Administration et cycle de vie de l'infrastructure hybride Active Directory et Microsoft Entra ID. Sécurisation : Mise en œuvre des contrôles de sécurité critiques (MFA, SSO, RBAC, Accès conditionnel). Maintien en Condition Opérationnelle : Support de niveau 3, gestion des incidents critiques et résolution de problématiques complexes sur le domaine industriel. Automatisation : Industrialisation des processus de provisioning et de reporting via scripting PowerShell.
Freelance
CDI

Offre d'emploi
Cloud FinOps Engineer Azure

KLETA
Publiée le
Azure
FinOps
Reporting

3 ans
Paris, France
Nous recherchons un Cloud FinOps Engineer Azure pour piloter et optimiser la performance financière des environnements cloud à grande échelle. Vous serez responsable de l’analyse des coûts Azure via Cost Management, Advisor et des outils de reporting, afin d’identifier les leviers d’optimisation et les axes d’amélioration. Vous travaillerez sur des stratégies de right-sizing, d’autoscaling, de réservations et d’optimisation des services (AKS, App Service, Azure Storage, Azure SQL). Vous contribuerez à la mise en place de modèles de refacturation interne (chargeback/showback) et à la définition de politiques de gouvernance financière. Vous développerez des tableaux de bord de pilotage des coûts et mettrez en place des alertes pour prévenir les dépassements budgétaires. En collaboration avec les équipes DevOps et Architecture, vous participerez à l’intégration des bonnes pratiques FinOps dans les processus d’industrialisation et les pipelines CI/CD. Vous jouerez également un rôle clé dans la sensibilisation et la formation des équipes aux enjeux de maîtrise des coûts et de sobriété cloud.
474 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous