Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 765 résultats.
CDI

Offre d'emploi
Data Engineer | Databricks

Hexateam
Publiée le
AWS Cloud
Databricks
Python

Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Freelance

Mission freelance
POT8949 - Un Consultant Devops sur IDF

Almatek
Publiée le
Python

6 mois
240-390 €
Île-de-France, France
Almatek recherche pour l'un de ses clients Un Consultant Devops sur IDF. DESCRIPTION DE LA MISSION. Intégré(e) dans les équipes Cloud, Ops & DWP le/la consultant(e) aura pour mission aura pour mission de participer à la mise en place et à l’amélioration continue des pipelines de données en utilisant des technologies DevOps telles que Kubernetes et GCP. Il/elle sera chargé de l’automatisation des déploiements, de la surveillance des performances et de la gestion des incidents. Le/la consultant(e) travaillera en étroite collaboration avec les équipes de développement et d’infrastructure pour garantir la fiabilité et la scalabilité des plateformes de données. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. -Posséder une expertise en développement avec les langages Python -Avoir une bonne connaissance des environnements Legacy -Maîtriser les technologies cloud GCP (Google Cloud Platform) incluant les services tels que Kubernetes, Cloud Functions, Pub/Sub, PostgreSQL -Gérer et optimiser l’infrastructure Cloud GCP via Ansible et Terraform - Développer et maintenir des pipelines de données robustes et performants -Être familier avec les concepts de CI/CD (Intégration Continue et Livraison Continue) et les outils associés comme GitLab CICD -Avoir une connaissance des bases de données relationnelles, notamment PostgreSQL -Maîtriser Helm File pour la gestion et la configuration des déploiements Helm dans Kubernetes. -Avoir une bonne compréhension des concepts de sécurité et de conformité dans un environnement cloud -Posséder des compétences en scripting et en automatisation pour la gestion des tâches -Connaissance des méthodes de gestion de projet en Agilité (Scrum, Sprint Planning, Backlog...)
Freelance

Mission freelance
Data Engineer -CLOUD GOOGLE-

DEVIK CONSULTING
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

1 an
400-650 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Expert Data Engineer Spécialisé sur Google Cloud afin de rejoindre la Squad data pour le pilotage commercial Tâches principales Développement de pipeline de données sur Cloud Composer / Airflow Optimisation des performances et coûts des traitements sur GCP Participation aux choix d'outils et des solutions techniques sur GCP et développement de nouvelles application Modélisation des données sur BigQuery Maintenir l'existant en condition opérationnelle Préparer et mettre en œuvre l’interopérabilité avec de nouveaux systèmes opérationnels Proposer des simplifications et/ou optimisations selon les normes internes Compétences demandées GCP : Confirmé Big Query : Expert Base de donnée : Confirmé Python : confirmé Lieu : Paris
CDI

Offre d'emploi
Data Engineer GCP

█ █ █ █ █ █ █
Publiée le
BigQuery
CI/CD
Git

L'Île-Saint-Denis, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Techlead Data Engineer | AWS | Databricks | Big Data

Hexateam
Publiée le
AWS Cloud
Databricks
Python

36 mois
Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
CDI
Freelance

Offre d'emploi
Expert Linux Senior (H/F)

AVA2I
Publiée le
Administration linux
Ansible
OpenLDAP

3 ans
France
Dans le cadre du maintien et de l’évolution d’infrastructures critiques en environnement bancaire , nous recherchons un Expert Linux Senior intervenant sur des systèmes de production à forte exigence de disponibilité, performance et fiabilité. Missions Administration avancée des environnements Linux Gestion d’infrastructures critiques (production) Résolution d’incidents complexes (niveau 3) Optimisation des performances systèmes Automatisation et industrialisation des tâches Participation aux projets d’évolution d’architecture Rédaction de documentation technique Environnement technique Linux (expertise avancée requise) Scripting Bash / Python Automatisation : Ansible, Rundeck Virtualisation : Proxmox VE Stockage : Ceph Services : OpenLDAP, NGINX PKI, NTP, Rsyslog Gentoo
Freelance
CDI
CDD

Offre d'emploi
Développeur  Data Python SQL Shell Spark

KEONI CONSULTING
Publiée le
JIRA
Jupyter Notebook
Python

18 mois
20k-60k €
100-500 €
Lyon, Auvergne-Rhône-Alpes
CONTEXTE : Le client dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour nous accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la mission est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs MISSIONS Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gourvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. Dans le même ordre d'idée, quelques attendus : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs Livrables attendus "Code source documenté Plan de tests / fiches de test Bilan Bordereau de livraison Manuel d’installation Dossier d’exploitation JIRA documentée" Environnement technique - technologique "• Cloudera Hadoop • Hive, impala • Python • SQL • Shell • Spark • VBA • GIT • Jupyter • Linux • JIRA" Compétences techniques Connaisance Cloudera Hadoop, Hive, Impala Développement Python Requêtage SQL Développement Shell Développement Spark (Scala) Utilisation de GIT Agilité (méthodes Kanban et/ou Scrum) Compétence liée à l'environnement Connaissance de l'écosystème de la protection sociale
Freelance

Mission freelance
Data Analytics Engineer

STHREE SAS pour COMPUTER FUTURES
Publiée le
Microsoft Power BI
Python

6 mois
Paris, France
Concevoir et mettre en œuvre des solutions data pour soutenir les objectifs business. Analyser et interpréter des données complexes afin d’en extraire des insights actionnables. Collaborer avec des équipes transverses pour identifier et résoudre les défis liés aux données. Développer et maintenir des pipelines de données, des modèles et des outils de reporting. Garantir la qualité, l’intégrité et la sécurité des données tout au long de leur cycle de vie. Fournir une expertise technique et un accompagnement aux parties prenantes pour favoriser la prise de décision basée sur les données
CDI
Freelance

Offre d'emploi
Ingénieur SRE / OPS H/F

Le Groupe SYD
Publiée le
Ansible
Bash
Dynatrace

9 mois
45k-48k €
420-480 €
Niort, Nouvelle-Aquitaine
🌟 Quel sera ton poste ? 🌟 💼 Poste : Ingénieur SRE / OPS H/F 📍 Lieu : Niort (79) 🏠 Télétravail : 3 jours sur site minimum 📝 Contrat : CDI ou Portage 👉 Contexte client : Tu rejoins un acteur majeur du secteur assurantiel , engagé dans la modernisation de son SI et le renforcement de ses pratiques OPS afin de soutenir la construction d’un SI B2B structuré et résilient. Le besoin s’inscrit dans un renfort des tribus Contrats & Support en 2026 , puis dans la tribu Contrats à partir de 2027 . En tant qu’ Ingénieur SRE / OPS , tu interviens au cœur d’environnements critiques, aux côtés des architectes, équipes études et exploitation, avec un rôle clé dans l’industrialisation, le déploiement, l’observabilité et l’amélioration continue des plateformes. Tu auras pour missions de : Participer à l’élaboration des dossiers d’architecture avec les architectes et analyser les impacts SI. Accompagner les équipes projets sur les déploiements et faire des feedback. Planifier les changements majeurs et transverses, et assurer le suivi de ces changements. Industrialiser les traitements en lien avec les équipes études. Administrer les serveurs applicatifs (Tomcat, Apache HTTPD…) et maintenir les normes et environnements. Faire évoluer les environnements, outils et composants applicatifs. Gérer / fiabiliser les mises en production et évaluer les risques techniques associés. Contribuer à la résolution des problèmes en lien avec l’exploitation. Communiquer et partager les standards SI, bonnes pratiques et principes d’architecture. Maintenir les outils de la fabrique logicielle et améliorer le plan de production. 🧰 Stack technique : Linux, Windows, VMware, Nutanix, Bash, Python, Ansible, Terraform, SQL, PostgreSQL, Tomcat, GitLab, Jenkins, Dynatrace, Nagios, Keycloak, AD/LDAP, NetApp, Fortigate
Freelance

Mission freelance
Expert Linux ET Stockage

AVALIANCE
Publiée le
Administration linux
Linux
Python

3 ans
400-700 €
Paris, France
Vous rejoindrez une équipe en charge des services infrastructure "Managed compute", "Development & Services" et "Cloud”. Au sein de notre équipe Infrastructure, vous serez le garant de production et du maintien en condition opérationnelle de nos systèmes : •Référent sur la partie opérationnelle de notre périmètre (Daily, Gestion des priorités, compréhension des demandes utilisateurs) •MCO de notre parc de stockage entreprise (SAN + NAS) •MCO sur notre parc de virtualisation vmware •Déploiement de serveurs ou vm Linux
CDI
Freelance

Offre d'emploi
Ingénieur Python/DevOps

OBJECTWARE
Publiée le
DevOps
Python

3 ans
40k-61k €
400-600 €
Île-de-France, France
Prestations demandées Le rôle que nous Recherchons demande une combinaison de plusieurs qualités : excellence technique, posture d’accompagnement, et plaisir à coder pour les autres. Votre savoir-faire (Compétences Techniques) : Compétences Indispensables : C'est le socle non négociable. Nous attendons une maîtrise solide ou un niveau expert sur ces sujets. Expertise approfondie et pratique de Python. Excellente maîtrise de Pytest et de son écosystème. Solide expérience en automatisation de tests d'API REST. Maîtrise de Git et des pipelines CI/CD, notamment GitLab CI. Maîtrise des commandes de base Linux et du scripting shell. Maîtrise des pratiques BDD (Gherkin). Compréhension des principes d'ingénierie logicielle (DRY, Abstraction, Idempotence). Compétences Appréciées (Les plus) : Une connaissance pratique ou théorique de ces sujets est un avantage certain. Une connaissance d'Apache Airflow. Une connaissance des pratiques de Test-Driven Development (TDD). Une bonne connaissance des environnements de conteneurisation (Docker/Kubernetes). Une connaissance des outils modernes de gestion de dépendances Python (Poetry, pip). Une expérience sur Terraform ou Ansible.
Freelance

Mission freelance
Architecte python Orleans

WorldWide People
Publiée le
Architecture
Python

12 mois
400-460 £GB
Orléans, Centre-Val de Loire
Architecte python Orleans Nous recherchons un Architecte python, pour une mission sur Orleans. Il faut que le candidat s'installe dans la région et habite proche du site. Dans un premier temps mission en full présentiel avec du TT dans un second temps à hauteur de 2 / 3 jours de TT. Activités principales Réaliser un audit des pratiques Python existantes (code, architecture, CI/CD, sécurité). Définir et documenter les standards d’architecture Python (guidelines, modèles, patterns). Rédiger et maintenir la documentation technique et les référentiels d’architecture . Participer aux revues techniques : design reviews, code reviews, validation d’architecture. Contribuer à la mise en place des frameworks et templates facilitant l’industrialisation (boilerplates, CI/CD, observabilité). Accompagner les équipes projet dans leurs conceptions et arbitrer les décisions techniques majeures. L’Architecte Python sera responsable de : Définition et cadrage technique Choisir les bons outils , patterns et mécanismes d’exposition (API, services, microservices). Produire un diagramme de choix architecturaux permettant de cadrer les usages Python et guider les équipes techniques. Définir les standards de développement Python : qualité, performance, résilience, observabilité, logging, sécurité. Standardisation & industrialisation Standardiser les pratiques de développement Python pour atteindre le niveau attendu sur les autres socles techniques (Java notamment). Proposer les fonctionnalités nécessaires à une mise en production fiable des développements Python (pipelines, packaging, tests, monitoring). Accompagnement & communication Embarquer et accompagner l’ensemble des équipes dans l’adoption des nouveaux standards et outils. Organiser et animer des ateliers d’architecture, des séances de partage de bonnes pratiques ou des revues de conception. Enjeux de la mission L’Architecte Python devra contribuer directement aux enjeux stratégiques suivants : Accompagner le groupe dans sa transformation technologique afin d’intégrer Python comme technologie de premier plan. Poser les bases pour les futurs développements IA (usage de LLM, data pipelines, modèles, microservices data/IA). Apporter de la souplesse dans les choix de socles techniques , pour permettre des architectures plus adaptatives et modulaires. Activités principales Réaliser un audit des pratiques Python existantes (code, architecture, CI/CD, sécurité). Définir et documenter les standards d’architecture Python (guidelines, modèles, patterns). Rédiger et maintenir la documentation technique et les référentiels d’architecture . Participer aux revues techniques : design reviews, code reviews, validation d’architecture. Contribuer à la mise en place des frameworks et templates facilitant l’industrialisation (boilerplates, CI/CD, observabilité). Accompagner les équipes projet dans leurs conceptions et arbitrer les décisions techniques majeures.
Freelance

Mission freelance
Data Analyst orienté Data Science

ODHCOM - FREELANCEREPUBLIK
Publiée le
Data analysis
Data science
PySpark

24 mois
400-620 €
Gradignan, Nouvelle-Aquitaine
Site de Gradignan (33) Mission longue durée – 2 ans (1 an ferme + 1 an reconductible) Charge estimée : ~210 jours/an (420 jours max) Contexte Dans le cadre du renforcement de son équipe Analyse de la Donnée, une grande organisation nationale recherche un Data Analyst orienté Data Science afin d’accompagner les métiers dans l’exploitation et la valorisation des données. Missions : Rattaché(e) à l’équipe Analyse de la Donnée, vous interviendrez sur l’ensemble de la chaîne de valeur Data, de la phase exploratoire jusqu’à la restitution des analyses via des outils de datavisualisation. Vos principales responsabilités : Analyse et croisement de données pour répondre à des cas d’usage métiers (ciblage, analyses exploratoires, data science) Développement et maintenance de produits Data réutilisables Publication et mise en forme des résultats via des outils de DataViz Respect des normes, standards et bonnes pratiques de l’équipe Accompagnement et acculturation des équipes métiers aux usages de la donnée Force de proposition dans la traduction des besoins métiers en solutions analytiques adaptées
CDI

Offre d'emploi
Ingénieur Data (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Spark
Git
Github

Beychac-et-Caillau, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Développeur IA Fullstack (H/F)

CITECH
Publiée le
Chatbot
CI/CD
Copilot

53k-70k €
Orléans, Centre-Val de Loire
🚀 CITECH recrute ! 👌 ✨ Vous souhaitez participer à un projet stratégique et innovant autour de l’IA et de l’AIOps ? Rejoignez une mission à forte valeur ajoutée au sein d’un grand acteur institutionnel, au cœur de sa feuille de route AIOps 2026 . 💡 Nous recherchons un(e) Développeur IA Fullstack (H/F) pour concevoir et déployer les premiers cas d’usage IA (MVP) sur une plateforme dédiée, au service de la performance opérationnelle et de la réduction des incidents IT. 🙌🔽 Vos principales missions : 🔽🙌 Développement Front-end & Expérience Utilisateur 🔸 Concevoir et développer le front-end du portail IA (accès aux assistants, modules de formation, FAQ). 🔸 Créer des interfaces web modernes : portails, widgets chatbot, panels Grafana . IA & Chatbots 🔸 Développer des chatbots basés sur des architectures RAG , avec une gestion fine des droits d’accès et de la sécurité. 🔸 Enrichir une marketplace d’assistants IA préconfigurés . Intégration & Déploiement 🔸 Déployer des agents IA dans l’écosystème Microsoft 365 / Copilot , avec exposition via API . 🔸 Assurer l’intégration technique avec les outils existants : plateforme IA, ITSM, Grafana (Agent AIOps). Projet & Documentation 🔸 Produire les livrables projet (comptes rendus, documentation technique). 🔸 Participer à la communication projet (niveau 3). 🔸 Collaborer étroitement avec un Chef de projet , un Architecte et un Développeur Fullstack .
Freelance

Mission freelance
Data Scientist – Forecasting / Snowflake

CHOURAK CONSULTING
Publiée le
Data science
Machine Learning
Python

1 mois
400-500 €
Lille, Hauts-de-France
Nous recherchons un Data Scientist pour intervenir sur une mission autour d’un sujet R&D en prévision des ventes , au sein d’un acteur du secteur retail. L’objectif de la mission est d’améliorer les stocks cibles en magasin grâce à la mise en place d’un modèle de prévision performant. Contexte de la mission Dans un environnement data existant reposant notamment sur Snowflake , vous interviendrez sur la mise en place des bases data et d’un système d’algorithmes de prévision des ventes . La mission se fera en collaboration étroite avec les équipes métiers , avec une approche itérative orientée résultats. Missions principales Mettre en place les prérequis data nécessaires aux travaux de modélisation. Développer un modèle de prévision des ventes . Exploiter et analyser les données disponibles dans Snowflake . Construire et tester des algorithmes de forecasting . Travailler en interaction directe avec les équipes métiers. Adopter une démarche R&D / POC avec itérations rapides .
765 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous