Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 293 résultats.
Freelance

Mission freelance
Data engineer ETL(IDQ)/python (F/H) - 75 + Remote

Publiée le
Data quality
ETL (Extract-transform-load)
Linux

12 mois
400-650 €
Paris, France
Télétravail partiel
Notre client recherche un Data Engineer ETL (Informatica / Python) pour renforcer son équipe IT au sein du domaine Finance. L’environnement technique comprend : Un ESB (Software AG) pour les traitements temps réel Un ETL (Informatica) pour les traitements batch Une Data Platform pour l’analytics (Microsoft Fabric / Power BI) Un plan de migration est en cours pour basculer les flux d’Informatica vers Microsoft Fabric. Mission Le data engineer interviendra sur le « data hub » finance, qui alimente les outils de finance. Missions principales : Phase 1 * Maintenance et support des flux existants (Informatica) * Maintenance évolutive et corrective des flux du data hub * Support aux équipes intégration et métiers * Suivi et monitoring des traitements * Analyse et résolution des incidents de production Phase 2 * Projets de migration et nouveaux développements * Participation aux projets de migration des flux vers Microsoft Fabric * Analyse des besoins et des données sources * Modélisation dans le modèle pivot du hub * Conception et développement de nouveaux flux * Rédaction de spécifications techniques/fonctionnelles détaillées * Tests unitaires et de non-régression Coordination avec les autres équipes techniques Déploiement et support post-mise en production
Freelance

Mission freelance
Site Reliability Engineer – Move to Cloud Azure (H/F)

Publiée le
Azure
Site Reliability Engineering (SRE)

6 mois
550 €
Villeneuve-d'Ascq, Hauts-de-France
Télétravail partiel
Nous recherchons un SRE expérimenté pour accompagner une migration d’infrastructure vers Microsoft Azure dans un contexte de modernisation et d’industrialisation des opérations. Contexte : Le consultant interviendra sur la migration VMware vers Azure AVS, la mise en place d’un PRA simplifié et l’organisation du MCO d’un parc de 335 VMs. Il contribuera également à la structuration des pratiques d’observabilité et à l’intégration d’outils de supervision adaptés. Missions principales : Accompagner le move-to-cloud vers Azure AVS . Construire et optimiser le MCO sur un large parc de VMs. Participer à la mise en place d’un PRA simplifié . Déployer et configurer les outils d’observabilité (Datadog, Grafana, Azure Monitoring…). Automatiser et industrialiser via Terraform, Puppet, GitHub . Contribuer à la fiabilisation et à la performance des environnements. Être force de proposition pour améliorer l’exploitation et la supervision.
Freelance

Mission freelance
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF/3 jours TT

Publiée le
Machine Learning
Python

6 mois
410-550 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF Compétences attendues : Pipeline de données et de machine learning Compétences en programmation (Python, Pydantic, PymuPDF) Compétences sur les services d’IA d’AWS (sagemaker) et des services AWS (StepFunction, Lambda, SQS, CloudWatch, Textract…) Compétences en computer Vision par réseaux de neurones Outils de DevOps et de Cloud Computing (Terraform) Processus CI / CD Outils d’automatisation Méthodologies agiles (Jira, Confluence, Kanban, Scrum…) Connaissance des principaux LLM dont les modèles Gemini Compétences en optimisation sous contraintes et connaissance d’outils comme ORTools Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Minimum 3 ans d’expérience Profils expérimentés (3 à 7 ans d’expérience) Profils senior (7 ans et +) Missions : Détection d’opportunités IA/ML et contribution à des preuves de concept (POC) (Identifier et analyser des opportunités IA/ML, concevoir et documenter des POC fonctionnels, puis présenter et évaluer leur valeur métier et robustesse auprès des parties prenantes.) Développement de fonctionnalités de Machine Learning et d'IA (Concevoir et valider l’architecture SI, collaborer avec l’équipe produit pour intégrer des fonctionnalités IA/ML, livrer des incréments industrialisables et contribuer à la documentation technique et produit.) Industrialisation et standardisation des pratiques IA / MLOps (Intégrer et déployer des modèles IA avec des formats standard, optimiser leur performance et coût, assurer le monitoring et les mises à jour, contribuer aux pratiques MLOps et réaliser une veille technologique en ML/IA.)
Freelance

Mission freelance
Data Engineer GCP

Publiée le
DBT
Google Cloud Platform (GCP)

18 mois
460-530 €
Rennes, Bretagne
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer GCP pour l'un de ses clients dans le secteur de la restauration à Rennes. Missions principales : Développer et maintenir des pipelines de données fiables et évolutives. Assurer un regard critique sur les données et garantir leur qualité ( quality by design ). Mettre en place des contrôles et validations sur les données, comprendre les contraintes métiers et techniques. Collaborer avec les équipes pour estimer le reste à faire , le chiffrage des tâches et la planification des sprints. Travailler dans un environnement agile (Scrum/Kanban), avec suivi dans Jira . Participer à la mise en place des bonnes pratiques DevOps : Git, CI/CD . Collaborer avec les équipes techniques et métiers pour garantir la pertinence des données. Atouts supplémentaires : Expérience industrielle ou traitement de données en temps réel (Pub/Sub). Capacité à proposer des améliorations ou innovations dans les pipelines et la qualité des données.
Freelance
CDI

Offre d'emploi
Senior Data engineer AWS

Publiée le
Terraform

18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
CDI
Freelance

Offre d'emploi
Cybersécurité Engineer / Sécurité Réseau

Publiée le
Fortinet
Palo Alto

1 an
40k-45k €
400-530 €
Île-de-France, France
Télétravail partiel
Cybersécurité Engineer / Sécurité Réseau-Build FW25-Cellule02 Le Bénéficiaire souhaite une prestation d'accompagnement dans l´objectif d´assurer la mise en place d'une prestation visant à administrer les équipements Firewall. Missions Participation à des projets impactant la sécurité des réseaux Réalisation des changements avec mesure des impacts Administration des politiques de sécurité distribuées sur les différents FW du groupe (traitement des demandes d'ouverture de flux, création de nouvelles bulles sécurisées, ..) Suivi des recommandations concernant la maîtrise du risque informatique Participation à la mise en œuvre et à l'amélioration de la démarche qualité Participation aux ateliers de travail technique (workshop) avec les chefs de projets et les architectes de sécurité Réflexion relative à la maîtrise du risque informatique
Freelance

Mission freelance
Data Engineer AWS - S3, Glue, Athena, Python

Publiée le
AWS Glue
Python

6 mois
210-480 €
France
Télétravail partiel
Dans le cadre d’un programme data stratégique dans le secteur pharmaceutique (domaine CMC – Chemistry, Manufacturing & Controls), l’entreprise souhaite renforcer son équipe Data Engineering afin de soutenir la migration, l’industrialisation et l’optimisation de ses pipelines analytiques sur AWS. La mission implique une forte collaboration avec les équipes scientifiques, Data, IT et produit, afin de clarifier les besoins métiers, structurer les modèles de données, fiabiliser les flux existants et accompagner les phases de migration vers des architectures modernes. L’objectif est d’améliorer la qualité, la performance, le coût et la robustesse de la plateforme data, tout en garantissant une documentation claire et une montée en compétence durable des équipes internes.
Freelance
CDI

Offre d'emploi
Mission de 3 ans en freelance ou portage - Operations Engineer Réseau et Logistique - Lille

Publiée le
Réseaux

3 ans
Lille, Hauts-de-France
Télétravail partiel
Bonjour Pour un de mes clients je cherche un(e) Operations Engineer – Logistique France Une grande entreprise du sport accélère sa transformation digitale pour devenir une plateforme ouverte et sécurisée. Les équipes digitales dans plusieurs pays créent des produits utiles pour les utilisateurs. L’équipe Proxi’Log fournit les solutions réseau et infra pour tous les entrepôts. Elle déploie et maintient les solutions techniques. Elle pilote les projets de robotisation. Elle assure la sécurité des infrastructures et accompagne les équipes IT à l’international. Le poste est un rôle de proximité entre les entrepôts et l’IT Vous gérez plusieurs sites. Vous pilotez et déployez les projets IT. Vous organisez vos déplacements. Vous êtes le point d’entrée pour le support réseau infra et devices. Vous formez des relais locaux et diffusez les bonnes pratiques. Vous gérez l’inventaire et la facturation du parc IT. Vous mettez à jour la documentation de vos sites. Compétences Réseau IPv4 LAN WiFi WAN DHCP DNS VLAN switch firewall Analyse et gestion d’escalade Pilotage de projets déploiements organisation planification Support N2 N3 coordination multi équipes Profil Diplôme d’ingénieur ou équivalent Minimum 2 ans d’expérience réseau Bon relationnel communication écoute Organisation sens du service esprit collectif Autonomie goût du terrain Anglais opérationnel Intérêt pour le sport et la tech Profil visé Operations Engineer polyvalent avec expérience réseau support et gestion de projets Si vous êtes intéressé(e) et que votre profil correspond merci d’envoyer votre CV à jour. Je vous recontacterai rapidement pour échanger.
Freelance

Mission freelance
Data Engineer Python AWS

Publiée le
AWS Cloud
Python

12 mois
620 €
Paris, France
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer Python AWS pour l'un de ses clients dans le secteur de l'énergie. Missions : Le Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment :  Collecter les exigences des métiers et des utilisateurs  Concevoir l'architecture de données  Concevoir les pipelines de données  Mettre en production l'architecture  Assurer la maintenance et l'évolution de l'architecture Le Data Engineer travaillera en étroite collaboration avec : Les Product Owners Les Data Analysts Les équipes métiers (marketing, trading, exploitation, supply chain…) Les équipes DataOps / MLOps
Freelance

Mission freelance
Data Engineer / Python / Azure MS Fabric (H/F)

Publiée le
Azure
Microsoft Fabric
PySpark

8 mois
550-600 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Data Engineer / Python / Azure pour l'un de ses clients qui opère dans le secteur de l'énergie Description 🧩 Contexte de mission Dans le cadre du renforcement de l’équipe Data, nous recherchons Data Engineer spécialisé en Python, PySpark et Microsoft Fabric , évoluant dans un environnement Azure Cloud . Les consultants seront responsables de la conception, du développement et de la mise en production de pipelines et architectures data au sein d’un contexte orienté performance, scalabilité et industrialisation. 🎯 Missions principales & rôle Le Data Engineer interviendra sur : La collecte et l’analyse des besoins métiers et utilisateurs La conception d’architectures de données robustes et scalables Le développement de pipelines de données (ingestion, transformation, modélisation) La mise en production des pipelines et leur optimisation continue La maintenance et l’évolution des architectures existantes Le respect des bonnes pratiques et standards d’ingénierie data 📌 Objectifs Concevoir une architecture data fiable, évolutive et documentée Industrialiser les pipelines pour garantir performance et qualité Assurer un haut niveau de disponibilité et de maintenabilité des solutions Accompagner les équipes internes dans la compréhension et l’usage des pipelines Contribuer à la structuration et à la maturité data de l’organisation
Freelance

Mission freelance
Data Engineer / Data Analyst

Publiée le
BigQuery
CI/CD
Google Cloud Platform (GCP)

2 ans
420-500 €
Lille, Hauts-de-France
Télétravail partiel
La mission consiste à : - Maîtrise de la donnée et garant de la qualité de son utilisation - Analyser les besoins des utilisateurs et proposer des solutions innovantes - Développer les solutions data - Maintenir les solutions existantes - Mettre en oeuvre des pipelines de données Compétences attendues : - Expériences significatives comme Data Engineer / Data Analyst - Maîtrise de SQL, Python, PowerBI, GCP, CI/CD, Terraform, Github et les ETL/ELT - Anglais un + Mission basée sur la métropole lilloise avec télétravail hybride
Freelance
CDI

Offre d'emploi
Data Engineer GCP

Publiée le
Apache Airflow
DBT
DevOps

12 mois
40k-48k €
370-420 €
Cesson-Sévigné, Bretagne
Télétravail partiel
Contexte de la mission : Dans le cadre des travaux à réaliser nous recherchons un profil Data Engineer GCP confirmé. Tâches à réaliser : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM) Compétences recherchées : Obligatoires : GCP DBT Big Query Devops Optionnelles : DataStage Expérience nécessaire : 5 années d’expérience sur la plateforme GCP (profil ITS : P22/P23) Langues : Français
CDI

Offre d'emploi
Physical Implementation Engineer - Semi Conducteur - IDF - H/F

Publiée le

70k-80k €
Neuilly-sur-Seine, Île-de-France
Télétravail partiel
Contexte du poste Nous sommes un acteur reconnu du secteur des semi-conducteurs, spécialisé dans la conception de circuits intégrés complexes destinés à des applications exigeantes (automobile, industrie, systèmes embarqués). Dans un contexte de croissance soutenue, nous renforçons notre département Back-End / Implémentation Physique , responsable de la réalisation physique complète de nos circuits. Basé(e) en Ile de France (92), vous rejoindrez une équipe d’experts travaillant sur des projets variés, allant de technologies 350 nm à 22 nm , au sein d’un environnement multiculturel. Vous interviendrez sur des circuits à signaux mixtes intégrant des blocs digitaux critiques (DFT, mémoires, interfaces), en interaction directe avec les équipes analogiques, front-end et layout. Ce rôle clé vous permettra de contribuer au développement de puces innovantes et d’améliorer nos flows internes Back-End & Front-End, tout en travaillant dans un environnement stimulant et collaboratif. Missions Missions principales Réaliser l’ implémentation physique complète des blocs digitaux : du RTL au GDSII . Mener les activités de Place & Route , CTS , routage , STA , EMIR , DFM , en garantissant la qualité et les objectifs PPA (Puissance / Performance / Surface). Participer à la définition, optimisation et automatisation des flows back-end et front-end (TCL, scripts internes). Échanger au quotidien avec les équipes analogiques, DFT, architecture, CAO et layout. Assurer la robustesse des designs en environnement complexe (qualité, fiabilité, normes). Missions annexes Participer aux revues d’architecture et proposer des adaptations d’implantation. Contribuer à l’amélioration continue des flows Cadence. Supporter les équipes sur les analyses de retours clients et adaptations post-silicon. Évaluer et comparer différents nœuds technologiques (22 nm → 350 nm). Aider à la montée en compétence du pôle digital sur les bonnes pratiques d’implémentation.
Freelance

Mission freelance
DevOps / Site Reliability Engineer (SRE)

Publiée le
Ansible
AWS Cloud
CI/CD

12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre de la modernisation et de l’industrialisation des environnements IT, nous recherchons un Ingénieur DevOps / SRE pour renforcer une équipe en charge de l’automatisation, de la fiabilité et de la performance des systèmes et applications. Le consultant interviendra sur la mise en place de pipelines CI/CD, l’automatisation des infrastructures, le monitoring et l’optimisation de la production , en collaboration avec les équipes de développement et d’exploitation. Missions Concevoir, maintenir et améliorer des pipelines CI/CD (Jenkins, GitLab CI, GitHub Actions). Automatiser le déploiement et la gestion des environnements via l’ Infrastructure as Code (Terraform, Ansible, Helm). Gérer et optimiser les environnements conteneurs et orchestration (Docker, Kubernetes, OpenShift). Mettre en place et superviser des solutions de monitoring et observabilité (Prometheus, Grafana, ELK, Datadog). Assurer la sécurité et la résilience des plateformes (gestion des secrets, durcissement des environnements, haute disponibilité). Collaborer avec les équipes de développement pour fiabiliser et automatiser les déploiements applicatifs. Optimiser les coûts, la performance et la scalabilité des environnements. Contribuer à une culture SRE (fiabilité, automatisation, gestion des incidents et post-mortem).
Freelance

Mission freelance
Data Engineer GCP (Rouen)

Publiée le
Google Cloud Platform (GCP)

1 an
400-550 €
Rouen, Normandie
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients situé à Rouen, je suis à la recherche d'un Data Engineer GDP. Objet de la prestation : L’objet du présent marché est une prestation d’accompagnement : Poste : Data Engineer - GCP Niveau d’expérience : au moins 3 ans Contenu de la prestation : Au sein de la DATAFABRIC, vous intégrerez une des équipes de développement agile composées de 5 à 7 Data Engineer qui travaille en lien avec le TechLead. Vous assurerez aussi le build et le run des traitements livrés en production sur la plateforme GCP Missions principales : • Analyse, Conception et Modélisation • Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d’exploitation). • Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données • Réaliser la recette technique • Assurer la qualité avec des tests de non-régression Savoir-être : • Sens du résultat et respect de l’engagement • Capacité à travailler en équipe Suivi de la prestation : Le représentant du fournisseur et de Matmut établiront une méthode du suivi de la prestation pour préciser si la prestation est au niveau attendu selon les indicateurs de performance et le fréquence définis au début de la prestation (respect des délais, qualité des livrables, etc.).
CDI

Offre d'emploi
Software Engineer – Full-Stack (Typescript / React / Fastify)

Publiée le

60k-90k €
Paris, France
Télétravail partiel
En tant que Software Engineer – Full-Stack (Typescript / React / Fastify), vous jouerez un rôle clé dans le développement et l'évolution des applications web de notre société de services informatiques. Vos principales responsabilités seront : • Concevoir et développer des fonctionnalités front-end et back-end robustes et performantes. • Collaborer avec les équipes produit et design pour assurer la meilleure expérience utilisateur. • Maintenir et améliorer les applications existantes en garantissant leur scalabilité et sécurité. • Participer aux revues de code et à l'amélioration continue des processus de développement. • Contribuer à la documentation technique et aux bonnes pratiques de l’équipe.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

293 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous