Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 409 résultats.
Freelance
CDI

Offre d'emploi
Lead Data Engineer / Data Engineer senior H/F

Publiée le
Ansible
Apache Airflow
Apache Kafka

6 mois
65k-80k €
650-760 €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons pour le compte de notre client un Lead Data Engineer / Data Engineer Senior H/F pour une mission en freelance ou portage salarial de 6 mois renouvelable à pourvoir dès que possible dans le département 92 (Ile-de-France). Un début de mission en janvier 2026 peut-être envisageable. Notre client propose 2 jours de télétravail maximum par semaine. Responsabilités principales : Mise en place de standards de développement et bonnes pratiques Expertise en performance, fiabilité et scalabilité Participation à la communauté des Tech Leads avec les différentes Lines of Business de notre client Développement de flux d’ingestion
CDI

Offre d'emploi
Data engineer Appache NIFI (H/F)

Publiée le

35k-40k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : - Appache NIFI (obligatoire) - Analyse de données (PowerBI, Tableau) - Base de données (SQL, GCP) - Langages: Python, SQL
Freelance
CDI

Offre d'emploi
Data Engineer (21)

Publiée le
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-660 €
Île-de-France, France
Télétravail partiel
Descriptif du poste La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Au sein de l'équipe Bronze, la prestation se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d'un product owner, d'un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l'orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l'infrastructure. Prestations attendues Prestation de cette équipe Collecter et centraliser les différentes sources de données non homogènes Assurer la conformité et la sécurité des données Participer aux initiatives de gouvernance des données Prestation en data engineering En interaction avec les membres de l'équipe, la prestation consiste à : Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe Construire et maintenir de pipelines data robustes et scalables Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l'évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances de data engineering Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine
Freelance

Mission freelance
Machine Learning Engineer (h/f)

Publiée le

1 mois
500-530 €
95000, Cergy, Île-de-France
Télétravail partiel
Résumé: Le rôle de Machine Learning Engineer consiste à concevoir, développer et améliorer des modèles de Machine Learning et Deep Learning, principalement pour les départements financiers et commerciaux. Responsabilités : Concevoir et développer des modèles de Machine Learning et Deep Learning. Assurer la robustesse et la performance des modèles créés. Travailler sur le développement d'applications innovantes basées sur Large Language Models (LLM). Intégrer des cas d’utilisation tels que le Retrieval-Augmented Generation (RAG) et des Knowledge Graphs. Industrialiser les solutions pour assurer leur déploiement à grande échelle. Participer à la migration des applications vers l'environnement cloud Google Cloud Platform (GCP). Contribuer à la mise en place et à l’optimisation de l’infrastructure cloud. Compétences : Modèles de Machine Learning et Deep Learning. Compétences en Python. Expérience avec l’environnement cloud (GCP). IA générative. Terraform (Infrastructure as Code). GitHub et GitHub Actions. CI/CD. Anglais courant. Autres Détails : Localisation: 95 (3 jours de télétravail par semaine). Mission de longue durée (3 ans).
CDI

Offre d'emploi
Ingénieur IT Validation Engineer - H/F

Publiée le

55k-60k €
28000, Chartres, Centre-Val de Loire
Télétravail partiel
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Ingénieur IT Validation Engineer pour l'un de nos clients du secteur pharmaceutique. Vous interviendrez sur le site client situé en Centre-Val de Loire . À ce titre, vos missions quotidiennes seront les suivantes : - Évaluer les risques induits par les changements et définir la stratégie de validation. - Générer et exécuter les plans de validation, protocoles IQ/OQ/PQ et rapports de synthèse. - Rédiger et mettre à jour les procédures opérationnelles standard (SOP). - Participer aux équipes projet pour la revue et l'approbation de la documentation de validation. - Assurer la traçabilité et la conformité des tests et migrations de données. - Fournir des conseils et interprétation des exigences de qualification dans un environnement GxP. - Piloter la mise en œuvre des solutions techniques et leur évolution. - Communiquer et coordonner avec les équipes techniques, métiers et éditeurs de logiciels. - Maintenir la documentation et la base de connaissances conformément aux standards qualité. - Produire des comptes rendus et rapports mensuels d'avancement et des indicateurs de validation. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
CDI

Offre d'emploi
Data Engineer Snowflake - Lyon

Publiée le
Snowflake

40k-60k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser et conseiller pour améliorer l’efficacité des solutions Snowflake chez nos clients. - Participer à la rédaction des dossiers d’architecture et des spécifications techniques. - Mettre en œuvre des stratégies d’exploitation de la plateforme Snowflake. - Développer et superviser des flux d’intégration (batch ou streaming) pour des volumes importants de données. - Surveiller les jobs ETL/ELT, logs et alertes, et optimiser les temps de traitement. - Administrer Snowflake chez ton client (gestion des rôles, permissions, warehouses). - Optimiser les requêtes SQL (à l’aide du Query Profile). - Contrôler la qualité des données (Data Quality) et la consommation des ressources (FinOps). - Tester, valider et documenter les développements. - Réaliser des audits et projets d’optimisation.
Freelance

Mission freelance
Data Engineer DBT / Snowflake

Publiée le
DBT

3 mois
400-500 €
Paris, France
Télétravail partiel
Acteur majeur du luxe Le poste Développer et maintenir les modèles DBT dans l’environnement Snowflake Réaliser les tests unitaires pour garantir la fiabilité et la performance des pipelines Documenter le code et les flux de données selon les standards internes Collaborer étroitement avec les équipes Data Engineering et BI Participer à l’amélioration continue des pratiques de développement et d’intégration Stack technique DBT (Data Build Tool) – confirmé (4 ans min) Snowflake – confirmé Git / GitLab CI/CD Python (pour scripting ou ingestion) DataOps / FinOps / QA (environnement du client) Modélisation : Kimball, Data Vault (bonus)
Freelance
CDI

Offre d'emploi
Lead Data Engineer (H/F)

Publiée le
Apache Spark
Big Data
Data management

3 ans
40k-71k €
400-700 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Lead Data Engineer / Data Engineer Senior pour renforcer une équipe data travaillant sur une plateforme moderne Azure / Databricks . Votre rôle : concevoir, industrialiser et optimiser des pipelines Big Data, tout en jouant un rôle de référent technique auprès de l’équipe. Compétences indispensables Big Data : Spark, Databricks Ingestion / Streaming : Kafka, Apache NiFi Cloud : Microsoft Azure Langages : Scala ou Java + Python + SQL Orchestration : Airflow CI/CD & DevOps : Azure DevOps, Git Compétences appréciées Dataiku Ansible Connaissance Data Lake / architectures medallion Vos missions Concevoir et industrialiser des pipelines Big Data (batch & streaming). Développer des flux d’ingestion avec NiFi, Kafka, Spark. Optimiser performance, qualité et scalabilité. Participer à l’architecture et aux choix techniques. Encadrer techniquement l’équipe (guidelines, bonnes pratiques, code review). Contribuer aux automatisations et à l’orchestration (Airflow, Ansible, DevOps).
Freelance
CDI

Offre d'emploi
AI Engineer

Publiée le
AWS Cloud
Docker
FastAPI

1 an
40k-55k €
400-600 €
Île-de-France, France
Télétravail partiel
Vous êtes passionné(e) par l’innovation et les défis techniques ? Vous avez une solide expérience en Machine Learning et en industrialisation de modèles ? Cette opportunité est faite pour vous ! 🔍 Vos missions : ✅ Concevoir, entraîner et déployer des modèles d’IA performants ✅ Optimiser leur intégration dans nos systèmes ✅ Développer des solutions scalables en Python ✅ Assurer la mise en production et le déploiement ✅ Collaborer avec les équipes Data Science et développement En termes de compétences, sont notamment attendus une maîtrise de : Infrastructure cloud Produits Docker Python et des librairies Machine et Deep Learning (Pytorch, TensorFlow, Fastai, ...) FastAPI Grands Modèles de Langage (LLM) Expérience en création d'outils IA
CDI

Offre d'emploi
Data Engineer GCP

Publiée le
BigQuery
DBT
DevOps

Rennes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer GCP confirmé : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM)
CDI

Offre d'emploi
System Engineer / Virtualization | Secteur Finance (H/F)

Publiée le
VMware

Paris, France
Télétravail partiel
Missions principales 1. Gestion des incidents et support (1/3 du temps) * Gérer les incidents de niveau 2 et 3 dans tous les domaines techniques. * Documenter les procédures et anciens partenaires de support local de niveau 1. * Fournir un support de niveau 1 aux utilisateurs si nécessaire. * Collaborer avec les prestataires externes pour garantir la qualité du service. 2. Maintenance et opérations quotidiennes (1/3 du temps) * Mettre à jour et gérer les environnements serveurs Windows et Linux. * Superviser et administrer l'infrastructure de stockage (VSAN Ready Node). * Administrer les solutions de visioconférence (Zoom Room). * Maintenir et mettre à jour la documentation technique. * Soutenir la gestion opérationnelle des contrats de maintenance et de support (renouvellements, mises à jour, fin de vie, etc.). 3. Projets techniques et évolution de l'infrastructure (1/3 du temps) * Participer et diriger des projets de transformation et d'évolution de l'infrastructure. * Assurer la continuité de service dans les domaines Workplace/Collaboration et Réseau pendant les périodes de congés de l'équipe. 4. Responsabilités transversales : * * Gestion des fournisseurs * Négociation des contrats * Gestion de projet
Freelance
CDI

Offre d'emploi
Data Engineer (15)

Publiée le
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-470 €
Île-de-France, France
Télétravail partiel
Contexte de la Mission Rattachement Direction Data (Direction du Numérique). Intégration à l'équipe Gold Pilotage (PO + 2 DE) qui alimente le pilotage des offres numériques via le produit Data4All. Stack technologique : Python, SQL, dbt, BigQuery, Airflow, Terraform/Terragrunt, autres services GCP. Activités Attendues Maintenir et faire évoluer Data4All et les dispositifs de l'équipe ; accompagner les utilisateurs ; mettre en place le contrôle qualité des données. Concevoir et maintenir des modèles et pipelines robustes et scalables ; organiser et structurer le stockage. Mettre en place et maintenir des infrastructures scalables, sécurité et stabilité des environnements, workflows CI/CD. Gouvernance et documentation (qualité, fiabilité, intégrité), partage de bonnes pratiques et veille ; participation aux instances Data Ingénieurs.
CDD
Freelance

Offre d'emploi
Tech Lead SRE / Site Reliability Engineer (H/F)

Publiée le
Ansible
AWS Cloud
Docker

12 mois
50k-65k €
480-550 €
France
Télétravail partiel
Vous rejoignez la Platform Team au sein de la Tribe Paiement de la Digital Factory en tant que Tech Lead SRE . Votre rôle : piloter la vision technique SRE, garantir la fiabilité des plateformes de paiement, et assurer la performance, la résilience et la scalabilité des environnements cloud. Vous serez le référent technique, le mentor de l’équipe SRE, et un acteur clé dans la définition des standards d’ingénierie, DevOps et SRE. Leadership & Vision technique Superviser l’ensemble des activités SRE de la Platform Team. Porter la vision d’architecture résiliente, scalable et moderne (cloud, conteneurs, automatisation). Définir les standards SRE , bonnes pratiques DevOps et orientations techniques : CI/CD, observabilité, sécurité, gestion des incidents. Encadrer et développer l’équipe SRE (mentorat, pair programming, formation). Architecture & Fiabilité Concevoir et faire évoluer l’architecture cible de la plateforme Paiement avec les architectes et Tech Leads. Définir et maintenir les blueprints d’architecture : réseau, sécurité, déploiement, observabilité. Participer aux choix technologiques et à l’urbanisation cloud (AWS). Exploitation & Automatisation Garantir le maintien en condition opérationnelle (MCO) de l’ensemble des applications Paiement. Optimiser les performances, la sécurité, la stabilité et la scalabilité des environnements. Construire et améliorer les pipelines CI/CD (GitLab CI) : tests, scans sécurité, qualité, déploiements progressifs. Automatiser les opérations répétitives (scripts, jobs, workflows). Support technique & gestion des incidents Analyser, corriger et suivre les tickets (ServiceNow, Jira) de niveau 3. Réaliser les opérations de maintenance, rattrapages d’incidents et opérations bulk. Participer aux handovers des nouvelles fonctionnalités en production. Produire des rapports techniques sur la performance et les incidents. Observabilité & Monitoring Mettre en place, maintenir et améliorer les dispositifs d’observabilité (Splunk Observability). Réagir rapidement en cas de panne, diagnostiquer les causes et proposer des solutions pérennes. Suivre l'état de santé des applications, lever les alertes et réaliser les premières analyses. FinOps & optimisation des ressources Suivre les coûts AWS, détecter les dérives et proposer des optimisations. Contribuer à une démarche FinOps structurée pour un usage maîtrisé du cloud.
Freelance

Mission freelance
Expert Ping Identity / IAM Security Engineer

Publiée le
autonomie

12 mois
650 €
Paris, France
Client & Projet Au sein de l’équipe Sécurité, vous interviendrez pour un acteur international de l’assurance et des services financiers, spécialisé dans la gestion des risques et la protection des clients. Missions principales Concevoir, configurer et opérer les solutions Ping Identity : PingFederate, PingAccess, PingID. Mettre en place et optimiser les flux d’authentification : SSO, fédération d’identités, MFA. Réaliser les intégrations applicatives (protocoles SAML, OAuth2, OIDC). Garantir la disponibilité, la performance et la sécurité des architectures IAM hybrides. Assurer le troubleshooting avancé et participer à la résolution des incidents complexes. Contribuer aux bonnes pratiques de sécurité, à la conformité et au suivi opérationnel. Compétences requises Ping Identity (PingFederate / PingAccess / PingID) – niveau expert (P5 – Master). Security Operations Management. Security Compliance & Client Data Protection (CDP). Security Monitoring & analyse de risques. Profil linguistique Français : requis. Anglais : requis. Conditions Télétravail : possible. Localisation : uniquement profils basés en France. Contacts
Freelance

Mission freelance
Data Engineer

Publiée le
Hadoop

6 mois
100-420 €
Orléans, Centre-Val de Loire
Nous recherchons quelqu’un avec de solides compétences sur SQL (notamment HIVE)..... ...... ..... ..... ..... ..... ...... ..... ..... ..... ..... ..... ... .... .. ..... ...... HADOOP (développement sur Cloudera Data Platform)...... ...... ...... ..... .. .. .. .... ..... .... .... ... ... ... Shell UNIX. ...... ....... ...... ....... ....... ..... ....... ..... ..... .... .... ....... ..... Git...... ...... ...... ...... ...... .... ..... ....... .... ... .... .... .... .... ... ... ... ... ...
Freelance
CDI

Offre d'emploi
Infrastructure Engineer Expert – File Transfer

Publiée le
Scripting

18 mois
10k-40k €
100-400 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Production, Exploitation, Infrastructure, Infrastructure Engineer Spécialités technologiques : Infrastructure, Virtualisation, Reporting, Managed File Transfer, MFT Compétences Technologies et Outils TCP/IP Apache Tomcat AWS Linux VMware SFTP Azure Axway Synchrony Python Windows http PowerShell ServiceNow Méthodes / Normes ITSM ITIL KPI Description et livrables de la prestation La prestation consiste à assurer l’expertise, l’exploitation et l’évolution des plateformes de transferts de fichiers managés (MFT) dans un environnement critique du secteur bancaire & assurantiel. Le prestataire garantit la disponibilité, la sécurité et la performance des flux inter-applicatifs, tout en accompagnant les équipes internes dans la mise en œuvre, la résolution d’incidents complexes, l’automatisation et l’amélioration continue. La mission inclut également la participation aux projets d’intégration, aux montées de versions et à la modernisation des solutions. LIVRABLES 1. Exploitation & Support Suivi et supervision des plateformes MFT Résolution d’incidents N2/N3 et analyses RCA Reporting d’activité et KPI 2. Techniques & Automatisation Scripts d’automatisation Documentation technique (procédures, configurations, runbooks) 3. Projets & Intégration Spécifications techniques Dossiers d’implémentation et de mise en production 4. Qualité & Conformité Mise à jour des procédures ITIL / sécurité Respect des standards internes 5. Transfert de Compétences Sessions de knowledge transfer Supports de formation Expertise souhaitée Maîtrise confirmée des plateformes Managed File Transfer (MFT), notamment Axway Synchrony (Gateway, Integrator, PassPort, Sentinel, CFT, Secure Transport). Compétences avancées sur Stonebranch Universal Agent (UAC, UDM, UEM, UCMD). Excellente connaissance des protocoles de transfert : SFTP, PeSIT. Solides compétences système sur environnements Linux et Windows. Connaissance des serveurs applicatifs : Apache Tomcat, Apache HTTP. Bon niveau en scripting (Shell, PowerShell, Python…). Maîtrise des concepts réseau (TCP/IP), virtualisation (VMware) et Cloud (Azure/AWS). Expérience de l’environnement ITIL et des outils ITSM (ServiceNow). Capacité à résoudre des incidents complexes, sécuriser des flux critiques et industrialiser des processus. Expérience en contexte international et environnement à fortes contraintes opérationnelles.
409 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous