Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 404 résultats.
CDI

Offre d'emploi
CDI - Software Backend Engineer - NodeJS/Typescript (H/F)

Publiée le
Architecture
Back-end
Node.js

60k-90k €
Paris, France
Télétravail partiel
En tant que Senior Backend developer (H/F), votre responsabilité principale sera de concevoir et de développer les fonctionnalités, composants et services de l'e-commerce de notre client, en appliquant les best practices de développements et de qualité. Vous travaillerez en direct avec des Product Owners & l'équipe infra (SRE & DEVOPS), dans un environnement agile & cloud AWS. Vous ferez du code review et pair programming au sein de votre équipe. Vous contribuerez aux décisions techniques et fonctionnelles, respecterez les normes de qualité, de sécurité et de performance. Principaux sujets : - Développement de nouvelles features - API, consommateurs kafka - Monitoring avec l'équipe infra - Pair programming, code review - Mise en place des best practices : TDD, DDD, SOLID STACK : NodeJS Typescript APIRest Kubernetes Docker Terraform Kafka Environnement cloud AWS
Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP (480€ MAX)

Publiée le
Google Cloud Platform (GCP)

3 mois
40k-81k €
370-480 €
Paris, France
Télétravail partiel
• Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery • Expériences intégrant les langages Python et SQL • Expériences intégrant PySpark • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques 1 . Déployer les cas d’usages en lien avec la personnalisation de l’expérience utilisateur 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets
Freelance

Mission freelance
Site Reliability Engineer – Move to Cloud Azure (H/F)

Publiée le
Azure
Site Reliability Engineering (SRE)

6 mois
550 €
Villeneuve-d'Ascq, Hauts-de-France
Télétravail partiel
Nous recherchons un SRE expérimenté pour accompagner une migration d’infrastructure vers Microsoft Azure dans un contexte de modernisation et d’industrialisation des opérations. Contexte : Le consultant interviendra sur la migration VMware vers Azure AVS, la mise en place d’un PRA simplifié et l’organisation du MCO d’un parc de 335 VMs. Il contribuera également à la structuration des pratiques d’observabilité et à l’intégration d’outils de supervision adaptés. Missions principales : Accompagner le move-to-cloud vers Azure AVS . Construire et optimiser le MCO sur un large parc de VMs. Participer à la mise en place d’un PRA simplifié . Déployer et configurer les outils d’observabilité (Datadog, Grafana, Azure Monitoring…). Automatiser et industrialiser via Terraform, Puppet, GitHub . Contribuer à la fiabilisation et à la performance des environnements. Être force de proposition pour améliorer l’exploitation et la supervision.
Freelance

Mission freelance
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF/3 jours TT

Publiée le
Machine Learning
Python

6 mois
410-550 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF Compétences attendues : Pipeline de données et de machine learning Compétences en programmation (Python, Pydantic, PymuPDF) Compétences sur les services d’IA d’AWS (sagemaker) et des services AWS (StepFunction, Lambda, SQS, CloudWatch, Textract…) Compétences en computer Vision par réseaux de neurones Outils de DevOps et de Cloud Computing (Terraform) Processus CI / CD Outils d’automatisation Méthodologies agiles (Jira, Confluence, Kanban, Scrum…) Connaissance des principaux LLM dont les modèles Gemini Compétences en optimisation sous contraintes et connaissance d’outils comme ORTools Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Minimum 3 ans d’expérience Profils expérimentés (3 à 7 ans d’expérience) Profils senior (7 ans et +) Missions : Détection d’opportunités IA/ML et contribution à des preuves de concept (POC) (Identifier et analyser des opportunités IA/ML, concevoir et documenter des POC fonctionnels, puis présenter et évaluer leur valeur métier et robustesse auprès des parties prenantes.) Développement de fonctionnalités de Machine Learning et d'IA (Concevoir et valider l’architecture SI, collaborer avec l’équipe produit pour intégrer des fonctionnalités IA/ML, livrer des incréments industrialisables et contribuer à la documentation technique et produit.) Industrialisation et standardisation des pratiques IA / MLOps (Intégrer et déployer des modèles IA avec des formats standard, optimiser leur performance et coût, assurer le monitoring et les mises à jour, contribuer aux pratiques MLOps et réaliser une veille technologique en ML/IA.)
Freelance

Mission freelance
Data Engineer GCP

Publiée le
DBT
Google Cloud Platform (GCP)

18 mois
460-530 €
Rennes, Bretagne
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer GCP pour l'un de ses clients dans le secteur de la restauration à Rennes. Missions principales : Développer et maintenir des pipelines de données fiables et évolutives. Assurer un regard critique sur les données et garantir leur qualité ( quality by design ). Mettre en place des contrôles et validations sur les données, comprendre les contraintes métiers et techniques. Collaborer avec les équipes pour estimer le reste à faire , le chiffrage des tâches et la planification des sprints. Travailler dans un environnement agile (Scrum/Kanban), avec suivi dans Jira . Participer à la mise en place des bonnes pratiques DevOps : Git, CI/CD . Collaborer avec les équipes techniques et métiers pour garantir la pertinence des données. Atouts supplémentaires : Expérience industrielle ou traitement de données en temps réel (Pub/Sub). Capacité à proposer des améliorations ou innovations dans les pipelines et la qualité des données.
Freelance

Mission freelance
Directeur de Projet Assurance

Publiée le
Dynatrace

12 mois
600-650 €
Paris, France
Télétravail partiel
Le client cherche un directeur de projet ayant une forte culture SI, pour piloter la mise en œuvre des chantiers / actions à réaliser pour engager un ensemble de transformations liées aux phases de tests de performances et l'automatisation des tests. Le directeur de projet travaillera sur les thématiques : Industrialisation des pratiques d’automatisation Positionnement des différentes phases / niveaux de tests liés aux performances dans toutes les phases de build du SI du client (tests de charges, tests aux limites, tests de rupture, ...) Description Besoin de piloter la mise en œuvre des chantiers de la transformations sur les activités performances et automatisations Performances Assurer la qualité et la pertinence des pratiques de tests de performance, Définir et mettre en place les stratégie de tests de performance et prioriser les besoins Mettre en place une gouvernance claire, un pilotage renforcé des livrables des équipes projets, proposer les instances de pilotage et d'animation et un reporting standardisé Automatisation Fédérer et aligner toutes les parties prenantes du client autour d'une culture du "testing first" et du framework d'automatisation commun. Encadrer la mise en place, l’évolution et l’industrialisation des pratiques d’automatisation Appliquer la stratégie d'automatisation et piloter l’industrialisation et la mutualisation des outils d’automatisation Responsabilité fondamentale du ou des projets dans toutes ses dimensions (stratégiques, commerciales, financières, humaines, juridiques, organisationnelles, techniques…). Pilotage de l’ensemble du ou des projets dans toute leur complexité (multiplicité des parties prenantes, intérêts souvent divergents…). Garantie de l’enjeu stratégique du projet pour le métier, l’entreprise ou des tiers. Périmètre détaillé : Garantit la pertinence et l’opportunité du développement du ou des projets. Est responsable de toutes les décisions importantes. Valide la recette définitive du ou des projets. Communication / animation : Mène toute action pour mener le ou les projets à bonne fin. Gère et anime la communication auprès des équipes et des différentes instances. Prépare et pilote la conduite du changement. Gestion des ressources : Conduit, optimise et est responsable de l'ensemble des ressources du ou des projets (humains, budget, clientèle, décision finale). Est responsable de la gestion financière du ou des projets ainsi que de toutes les exigences définies (qualité, coût, délai…). Livrables Plan de l'organisation du ou des projets qu'il manage. Reporting Direction sur l'alignement des projets. Reporting standardisé mis en place et partagé avec les domaines du client Pilotage et animation du chantier Pilotage des jalons et des contributeurs Supports de COMOP et COPIL 100% des équipes appliquant la nouvelle stratégie d’automatisation et travaillant avec des outils définis dans le cadre du chantier de transformation du client Intégration des tests de performance dans les stratégies de tests de tous les projets et releases Compétences Expérience récente dans l'assurance Systèmes d'information et alignement stratégique métier Planification des produits/services Développement du personnel Gestion des projets et du portefeuille de projets Gestion de la relation client Mise en place d'un plan d'activités Développement d'une stratégie pour la qualité des TIC Gestion de l'information et de la connaissance Gestion des risques Maîtrise des concepts , des pratiques et des outils d’automatisation des tests Expertise des approches et des outils de tests de performance (Gatling, Dynatrace, Néoload ..) Maîtrise des méthodes projets et planification de travaux informatiques Compétences clés Néoload - Gatling - Dynatrace - Gherkin - Intéressant
Freelance
CDI

Offre d'emploi
Senior Data engineer AWS

Publiée le
Terraform

18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Freelance
CDI

Offre d'emploi
Mission de 3 ans en freelance ou portage - Operations Engineer Réseau et Logistique - Lille

Publiée le
Réseaux

3 ans
Lille, Hauts-de-France
Télétravail partiel
Bonjour Pour un de mes clients je cherche un(e) Operations Engineer – Logistique France Une grande entreprise du sport accélère sa transformation digitale pour devenir une plateforme ouverte et sécurisée. Les équipes digitales dans plusieurs pays créent des produits utiles pour les utilisateurs. L’équipe Proxi’Log fournit les solutions réseau et infra pour tous les entrepôts. Elle déploie et maintient les solutions techniques. Elle pilote les projets de robotisation. Elle assure la sécurité des infrastructures et accompagne les équipes IT à l’international. Le poste est un rôle de proximité entre les entrepôts et l’IT Vous gérez plusieurs sites. Vous pilotez et déployez les projets IT. Vous organisez vos déplacements. Vous êtes le point d’entrée pour le support réseau infra et devices. Vous formez des relais locaux et diffusez les bonnes pratiques. Vous gérez l’inventaire et la facturation du parc IT. Vous mettez à jour la documentation de vos sites. Compétences Réseau IPv4 LAN WiFi WAN DHCP DNS VLAN switch firewall Analyse et gestion d’escalade Pilotage de projets déploiements organisation planification Support N2 N3 coordination multi équipes Profil Diplôme d’ingénieur ou équivalent Minimum 2 ans d’expérience réseau Bon relationnel communication écoute Organisation sens du service esprit collectif Autonomie goût du terrain Anglais opérationnel Intérêt pour le sport et la tech Profil visé Operations Engineer polyvalent avec expérience réseau support et gestion de projets Si vous êtes intéressé(e) et que votre profil correspond merci d’envoyer votre CV à jour. Je vous recontacterai rapidement pour échanger.
Freelance

Mission freelance
Data Engineer / Python / Azure MS Fabric (H/F)

Publiée le
Azure
Microsoft Fabric
PySpark

8 mois
550-600 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Data Engineer / Python / Azure pour l'un de ses clients qui opère dans le secteur de l'énergie Description 🧩 Contexte de mission Dans le cadre du renforcement de l’équipe Data, nous recherchons Data Engineer spécialisé en Python, PySpark et Microsoft Fabric , évoluant dans un environnement Azure Cloud . Les consultants seront responsables de la conception, du développement et de la mise en production de pipelines et architectures data au sein d’un contexte orienté performance, scalabilité et industrialisation. 🎯 Missions principales & rôle Le Data Engineer interviendra sur : La collecte et l’analyse des besoins métiers et utilisateurs La conception d’architectures de données robustes et scalables Le développement de pipelines de données (ingestion, transformation, modélisation) La mise en production des pipelines et leur optimisation continue La maintenance et l’évolution des architectures existantes Le respect des bonnes pratiques et standards d’ingénierie data 📌 Objectifs Concevoir une architecture data fiable, évolutive et documentée Industrialiser les pipelines pour garantir performance et qualité Assurer un haut niveau de disponibilité et de maintenabilité des solutions Accompagner les équipes internes dans la compréhension et l’usage des pipelines Contribuer à la structuration et à la maturité data de l’organisation
Freelance

Mission freelance
Data Engineer Python AWS

Publiée le
AWS Cloud
Python

12 mois
620 €
Paris, France
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer Python AWS pour l'un de ses clients dans le secteur de l'énergie. Missions : Le Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment :  Collecter les exigences des métiers et des utilisateurs  Concevoir l'architecture de données  Concevoir les pipelines de données  Mettre en production l'architecture  Assurer la maintenance et l'évolution de l'architecture Le Data Engineer travaillera en étroite collaboration avec : Les Product Owners Les Data Analysts Les équipes métiers (marketing, trading, exploitation, supply chain…) Les équipes DataOps / MLOps
Freelance

Mission freelance
Data Engineer AWS - S3, Glue, Athena, Python

Publiée le
AWS Glue
Python

6 mois
210-480 €
France
Télétravail partiel
Dans le cadre d’un programme data stratégique dans le secteur pharmaceutique (domaine CMC – Chemistry, Manufacturing & Controls), l’entreprise souhaite renforcer son équipe Data Engineering afin de soutenir la migration, l’industrialisation et l’optimisation de ses pipelines analytiques sur AWS. La mission implique une forte collaboration avec les équipes scientifiques, Data, IT et produit, afin de clarifier les besoins métiers, structurer les modèles de données, fiabiliser les flux existants et accompagner les phases de migration vers des architectures modernes. L’objectif est d’améliorer la qualité, la performance, le coût et la robustesse de la plateforme data, tout en garantissant une documentation claire et une montée en compétence durable des équipes internes.
Freelance

Mission freelance
Data Engineer / Data Analyst

Publiée le
BigQuery
CI/CD
Google Cloud Platform (GCP)

2 ans
420-500 €
Lille, Hauts-de-France
Télétravail partiel
La mission consiste à : - Maîtrise de la donnée et garant de la qualité de son utilisation - Analyser les besoins des utilisateurs et proposer des solutions innovantes - Développer les solutions data - Maintenir les solutions existantes - Mettre en oeuvre des pipelines de données Compétences attendues : - Expériences significatives comme Data Engineer / Data Analyst - Maîtrise de SQL, Python, PowerBI, GCP, CI/CD, Terraform, Github et les ETL/ELT - Anglais un + Mission basée sur la métropole lilloise avec télétravail hybride
Freelance
CDI

Offre d'emploi
Data Engineer GCP

Publiée le
Apache Airflow
DBT
DevOps

12 mois
40k-48k €
370-420 €
Cesson-Sévigné, Bretagne
Télétravail partiel
Contexte de la mission : Dans le cadre des travaux à réaliser nous recherchons un profil Data Engineer GCP confirmé. Tâches à réaliser : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM) Compétences recherchées : Obligatoires : GCP DBT Big Query Devops Optionnelles : DataStage Expérience nécessaire : 5 années d’expérience sur la plateforme GCP (profil ITS : P22/P23) Langues : Français
CDI

Offre d'emploi
Physical Implementation Engineer - Semi Conducteur - IDF - H/F

Publiée le

70k-80k €
Neuilly-sur-Seine, Île-de-France
Télétravail partiel
Contexte du poste Nous sommes un acteur reconnu du secteur des semi-conducteurs, spécialisé dans la conception de circuits intégrés complexes destinés à des applications exigeantes (automobile, industrie, systèmes embarqués). Dans un contexte de croissance soutenue, nous renforçons notre département Back-End / Implémentation Physique , responsable de la réalisation physique complète de nos circuits. Basé(e) en Ile de France (92), vous rejoindrez une équipe d’experts travaillant sur des projets variés, allant de technologies 350 nm à 22 nm , au sein d’un environnement multiculturel. Vous interviendrez sur des circuits à signaux mixtes intégrant des blocs digitaux critiques (DFT, mémoires, interfaces), en interaction directe avec les équipes analogiques, front-end et layout. Ce rôle clé vous permettra de contribuer au développement de puces innovantes et d’améliorer nos flows internes Back-End & Front-End, tout en travaillant dans un environnement stimulant et collaboratif. Missions Missions principales Réaliser l’ implémentation physique complète des blocs digitaux : du RTL au GDSII . Mener les activités de Place & Route , CTS , routage , STA , EMIR , DFM , en garantissant la qualité et les objectifs PPA (Puissance / Performance / Surface). Participer à la définition, optimisation et automatisation des flows back-end et front-end (TCL, scripts internes). Échanger au quotidien avec les équipes analogiques, DFT, architecture, CAO et layout. Assurer la robustesse des designs en environnement complexe (qualité, fiabilité, normes). Missions annexes Participer aux revues d’architecture et proposer des adaptations d’implantation. Contribuer à l’amélioration continue des flows Cadence. Supporter les équipes sur les analyses de retours clients et adaptations post-silicon. Évaluer et comparer différents nœuds technologiques (22 nm → 350 nm). Aider à la montée en compétence du pôle digital sur les bonnes pratiques d’implémentation.
Freelance

Mission freelance
Data Engineer GCP (Rouen)

Publiée le
Google Cloud Platform (GCP)

1 an
400-550 €
Rouen, Normandie
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients situé à Rouen, je suis à la recherche d'un Data Engineer GDP. Objet de la prestation : L’objet du présent marché est une prestation d’accompagnement : Poste : Data Engineer - GCP Niveau d’expérience : au moins 3 ans Contenu de la prestation : Au sein de la DATAFABRIC, vous intégrerez une des équipes de développement agile composées de 5 à 7 Data Engineer qui travaille en lien avec le TechLead. Vous assurerez aussi le build et le run des traitements livrés en production sur la plateforme GCP Missions principales : • Analyse, Conception et Modélisation • Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d’exploitation). • Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données • Réaliser la recette technique • Assurer la qualité avec des tests de non-régression Savoir-être : • Sens du résultat et respect de l’engagement • Capacité à travailler en équipe Suivi de la prestation : Le représentant du fournisseur et de Matmut établiront une méthode du suivi de la prestation pour préciser si la prestation est au niveau attendu selon les indicateurs de performance et le fréquence définis au début de la prestation (respect des délais, qualité des livrables, etc.).
CDI

Offre d'emploi
Software Engineer – Full-Stack (Typescript / React / Fastify)

Publiée le

60k-90k €
Paris, France
Télétravail partiel
En tant que Software Engineer – Full-Stack (Typescript / React / Fastify), vous jouerez un rôle clé dans le développement et l'évolution des applications web de notre société de services informatiques. Vos principales responsabilités seront : • Concevoir et développer des fonctionnalités front-end et back-end robustes et performantes. • Collaborer avec les équipes produit et design pour assurer la meilleure expérience utilisateur. • Maintenir et améliorer les applications existantes en garantissant leur scalabilité et sécurité. • Participer aux revues de code et à l'amélioration continue des processus de développement. • Contribuer à la documentation technique et aux bonnes pratiques de l’équipe.
404 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous