Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 461 résultats.
CDI
Freelance

Offre d'emploi
Data Engineer Azure

KLETA
Publiée le
Azure
Databricks

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Azure pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur Microsoft Azure. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec Azure Data Factory, Azure Databricks, Azure Synapse, Azure Data Lake et Event Hubs. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’Azure. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance

Mission freelance
Lead Tech Python – GenAI (H/F) – Mission 3 jours semaines – Île-de-France

HOXTON PARTNERS
Publiée le
AWS Cloud
GenAI
Python

10 mois
550 €
Massy, Île-de-France
Dans le cadre de la mise en place d’une GenAI Factory au sein d’un grand acteur bancaire, nous recherchons un Lead Tech Python expérimenté. La mission consiste à intervenir comme référent technique auprès d’une équipe de développeurs GenAI afin de renforcer la qualité et la robustesse des développements Python. Le consultant participera activement au développement, challengera les choix techniques, diffusera les bonnes pratiques (architecture, structuration de code, tests, performance) et recommandera les librairies adaptées aux cas d’usage IA générative (LLM, RAG, orchestration, etc.). Une expérience concrète en développement sur des projets Generative AI est indispensable. Une connaissance d’environnements cloud, idéalement AWS, est fortement appréciée.
Freelance

Mission freelance
101056/Lead Backend JavaScript,Node.js,PostgreSQL, Terraform,React,Data Analysis,AWS Amazon

WorldWide People
Publiée le
Javascript
Node.js

9 mois
400-410 €
Bezons, Île-de-France
Lead Backend JavaScript,Node.js,PostgreSQL,Play Framework,HashiCorp Terraform,React,Data Analysis,AWS Amazon. capable de structurer, accélérer et sécuriser le développement de notre plateforme Saas, tout en accompagnant l’équipe dans la montée en maturité technique. Ce rôle combine expertise JS/React, maîtrise backend Node/Postgres, forte expérience AWS, et leadership technique opérationnel. QUALIFICATIONS : JavaScript,Node.js,PostgreSQL,Play Framework,HashiCorp Terraform,React,Data Analysis,AWS Amazon,
Freelance

Mission freelance
Développeur d'appli. à forte connotation Data

Codezys
Publiée le
API
Azure
Azure DevOps Services

12 mois
360-410 €
Paris, France
Contexte de la mission Au sein de la Direction des Systèmes d'Information (DSI), le service « systèmes connectés » gère un portefeuille de projets couvrant plusieurs applications, dont certaines sont en phase de développement ( BUILD ) et d'autres en exploitation ( RUN ). Nous recherchons un profil expérimenté pour assurer la responsabilité d’un projet existant. Ce projet, récemment mis en production, a pour objectif de fournir des indicateurs via une interface Grafana. Le système comprend une couche « d’ingestion » qui enregistre les données dans une base ElasticSearch, dans un format adapté. Cette étape d’ingestion est orchestrée avec du code Java. Les indicateurs produits permettent au métier de suivre les modules de télérelève et de radio-relevé client (plus d’un million de modules, avec un index quotidien sur trois ans). La mission comprend notamment : La maintenance de l’existant L’analyse des incidents et des questions remontés par le métier afin d’expliquer ou corriger les résultats affichés L’ajout de nouveaux objets métier selon les besoins. Objectifs et livrables Le candidat retenu devra prendre en charge les projets suivants : Projet « Supervision Télérelève » : basé sur une architecture technique Java/ELK/Grafana, il vise à fournir une solution de reporting des données de télérelève aux experts et aux collectivités. Le socle technique étant déjà en place, il sera nécessaire de le maintenir, le faire évoluer en intégrant de nouveaux objets, et de collaborer avec d’autres équipes sur la mise en œuvre de fonctionnalités d’authentification, afin d’intégrer la solution dans d’autres projets. Il est également possible qu’à moyen terme, une migration vers Databricks soit envisagée. Le rôle du consultant sera celui de TechLead et de développeur : il analysera l’existant, assurera des activités de débogage, suivra le backlog et communiquera régulièrement avec le métier, le Product Owner (PO) et, si nécessaire, avec les architectes. En tant que seul acteur technique sur ce projet, le consultant devra faire preuve d’une grande autonomie pour la gestion des sujets techniques.
CDI

Offre d'emploi
QA DATA

KOUKA
Publiée le
CI/CD
Cypress
JIRA

40k-45k €
Île-de-France, France
La définition et la mise en œuvre de stratégies de tests sur les flux de données La validation des données (contrôles SQL, cohérence, complétude, intégrité) La rédaction et l’exécution de cas de tests fonctionnels et techniques L’automatisation des tests (API, UI, data pipelines) La collaboration avec les équipes Data, Dev et Produit Le suivi des anomalies et leur résolution Langages / Data : SQL Gestion des tests : JIRA / XRAY Méthodologie : BDD – Gherkin Tests automatisés : Cypress Tests API : Postman / Newman CI/CD : GitLab Versioning : Git
Alternance
CDI

Offre d'emploi
Apprenti - Développeur Java - Validation données ferroviaires f/h F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Data management
Eclipse
Java

Châtillon, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
AWS Platform Engineer

Codezys
Publiée le
AWS CloudFormation
Github
Kubernetes

3 mois
400-450 €
Paris, France
Dans le cadre de cet appel d'offres, nous vous proposons une description précise des rôles et responsabilités attendus pour le poste au sein de notre squad Data and Analytics Platform . Cette équipe est dédiée à la gestion et au développement de notre infrastructure data, en assurant la conformité, la sécurité et l'efficacité des solutions déployées. Rôles et responsabilités : Développement, mise à jour et maintenance du code infrastructure : Vous serez en charge de concevoir, mettre à jour et maintenir le code Terraform nécessaire pour nos environnements Azure et/ou AWS, en veillant au respect strict des règles de sécurité internes de TotalEnergies ainsi que des meilleures pratiques du secteur. Enrichissement de la documentation : Vous assurerez la mise à jour régulière de la documentation technique à destination des utilisateurs, afin de garantir une compréhension claire des outils et des processus mis en place. Conception et maintenance de chaînes de déploiement automatisé (CI/CD) : Vous participerez à la conception, à la mise en œuvre et à la maintenance des pipelines CI/CD automatisés, favorisant une livraison rapide et fiable des solutions data. Profil recherché : De formation Bac+5 en informatique ou diplôme équivalent. Vous êtes sensibilisé(e) aux principes de gouvernance, de sécurité et de réglementation relatives aux données et à leur exploitation. Ce poste requiert une expertise technique approfondie, une capacité à travailler en équipe sur des projets complexes, ainsi qu'une attitude proactive pour garantir la conformité et la performance des solutions déployées.
Freelance
CDI

Offre d'emploi
Data scientist IA générative

CAT-AMANIA
Publiée le
AWS Cloud
IA
Python

1 an
56k-58k €
460-510 €
Paris, France
Nous recherchons un Data Scientist pour renforcer l'équipe de notre client Data Science et Intelligence Artificielle. L'objectif est de poursuivre les travaux sur la "plateforme de services IA Générative" composée de plusieurs services IA destinés à des cas d'usages métiers portés par des projets. L'équipe est actuellement constituée de 3 Data Scientists et 2 DevOPS. Les services existants: - le service OCR Optical Character Recognition en mode synchrone - le service NLU Natural Language Understanding - le service KM Knowlekdge Management pour un chat bot Les sujets à venir: - déployer un service d'OCR asynchrone - utiliser les services OCR synchrones et/ou asynchrones pour les cas d'usages "carte d'identité", "factures", "passeport" - déployer un service lié à la lutte contre la fraude - déployer un service de catégorisation des documents
Freelance

Mission freelance
Ingénieur Devops - Confirmé

Les Filles et les Garçons de la Tech
Publiée le
Ansible
AWS Cloud
Azure

60 jours
450-600 €
Bordeaux, Nouvelle-Aquitaine
Attention avant de postuler : Je ne prends que des candidatures de personnes habitants sur Bordeaux et alentours car présentiel 3 jours sur site client. Merci de bien tenir compte de cette information avec de postuler. Bonjour à toutes et à tous, Dans le cadre de la transformation et de la modernisation de son Système d’Information, un grand groupe du secteur tertiaire souhaite renforcer ses équipes IT , et plus précisément son équipe DEVOPS avec un fort enjeu d’industrialisation, d’automatisation et de sécurisation des environnements applicatifs. En tant qu’Ingénieur DevOps confirmé, vous interviendrez en collaboration étroite avec les équipes de développement, d’exploitation et d’architecture. Objectifs principaux de la mission : Renforcer l’expertise DevOps au sein de la DSI Fiabiliser et industrialiser les chaînes CI/CD Améliorer l’automatisation des infrastructures Accompagner les équipes vers les bonnes pratiques DevOps / DevSecOps Responsabilités : Concevoir, déployer et maintenir des systèmes fiables et scalables Assurer un rôle de backup sur l’architecture DevOps (GitLab CI/CD, pipelines, runners) puis en garantir le maintien opérationnel Automatiser les déploiements et infrastructures (Infrastructure as Code) Mettre en œuvre les pratiques DevSecOps Assurer le monitoring, la supervision et la gestion des incidents Optimiser en continu les pipelines CI/CD Documenter et transmettre les bonnes pratiques aux équipes internes Compétences techniques requises : Expérience confirmée en environnement DevOps Maîtrise de GitLab CI/CD Scripting : Python, Bash Outils d’IaC et d’automatisation : Terraform, Ansible Conteneurisation et orchestration : Docker, Kubernetes Observabilité : Elastic Stack (Logstash, Kibana), Grafana Bon niveau en sécurité et pratiques DevSecOps Les bonus appréciés : Environnements Cloud : AWS et/ou Azure Puppet (gestion de configuration) Expérience en environnement tertiaire (assurance appréciée) Livrables attendus : Pipelines CI/CD documentés Scripts et templates d’automatisation Documentation technique complète Recommandations d’amélioration continue
Freelance

Mission freelance
Senior Data Engineer (Talend)

STHREE SAS pour COMPUTER FUTURES
Publiée le
Microsoft Power BI
Microsoft SSIS
Talend

6 mois
Vélizy-Villacoublay, Île-de-France
Contexte de la mission Dans le cadre du programme de Digital and Data Transformation du Groupe, a la charge de la conception, de la livraison et du cycle de vie des data products supportant les initiatives stratégiques data du Groupe. Le Senior Data Engineer interviendra sur la construction et l’évolution des plateformes et pipelines data, la transformation de données brutes en données à forte valeur ajoutée, ainsi que l’amélioration continue des actifs data, en collaboration avec des équipes internationales.
Freelance
CDI

Offre d'emploi
Senior Data Engineer Python / Kafka / Flink (On-Premise)

Deodis
Publiée le
Apache Kafka
Python

1 an
40k-45k €
400-500 €
Île-de-France, France
Nous recherchons un(e) Senior Data Engineer pour concevoir, déployer et maintenir une plateforme de données robuste et performante dans un environnement entièrement on-premise. Vous serez responsable du développement de pipelines batch et temps réel en Python, de l’orchestration via Apache Airflow et du traitement de flux avec Apache Flink, tout en assurant l’exploitation de Apache Kafka pour le streaming à grande échelle. Vous contribuerez également à l’observabilité et à la qualité des données via la stack Elasticsearch / Logstash / Kibana, en collaboration étroite avec les équipes Data et DevOps. Ce rôle clé implique un haut niveau d’exigence technique, la fiabilité des systèmes en production et l’accompagnement des ingénieurs plus juniors
CDI

Offre d'emploi
ALTERNANCE - Data Scientist (H/F)

█ █ █ █ █ █ █
Publiée le
Laravel
Python
SQL

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data Modelisation sur Paris

EterniTech
Publiée le
BigQuery
Merise

3 mois
Paris, France
e cherche pour un de mes clients un Data Modelisation Description du besoin : OBJET DE LA PRESTATION : DATA MODELER - PROGRAMME DE TRANSFORMATION DATA B2B NOM DU PROJET : TRANSFORMATION DATA B2B Senior Data Analyst / Data Modeler (B2B) Cadre et environnement (Contexte général du projet) Dans le cadre du programme de transformation de la Data B2B (Agite Data), le client construit son nouvel espace de données sur la plateforme Groupe AIDA (Google Cloud Platform/BigQuery). La stratégie adoptée est une approche "Greenfield" : reconstruction des produits de données (et non migration "Lift & Shift") depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). La prestation s'intègre au sein de la "Core Team", l'équipe transverse chargée de bâtir, en mode agile, le socle technique et les données de référence (RCU, Pivots) qui serviront ensuite aux Squads Métiers pour bâtir leurs cas d'usages Définition de la prestation (Objet & Périmètre de la prestation) Le Prestataire agira en tant que Référent Modélisation & Connaissance de la Donnée. Il fera le lien entre les Experts Métiers et le Lead data engineer agile. 1) Conception du "Core Model" : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) en cible sur BigQuery (Modèles en étoile / Data Vault). 2) Règles de Gestion RCU : Définir et prototyper (en SQL) les règles de rapprochement (Matching/Merging) permettant de lier les données techniques (ex: ND) aux données légales (SIREN/SIRET). 3) Archéologie de la Donnée : Analyser les sources Legacy (Oracle) pour identifier les règles implicites et cartographier les écarts avec la cible. 4) Gouvernance & Dictionnaire : Rédiger les définitions fonctionnelles directement dans le Data Catalog d'AIDA (Métadonnées BigQuery) et le Data Catalog Métier (ODG = Open Data Guide) pour garantir l'autonomie des futures Squads. 5) Support aux Squads : Préparer des "Data Sets" certifiés pour faciliter le travail des Data Scientists et Analystes des Squads Métiers. Activités / Lots Résultats attendus / Livrables associés Planning / Date de livrables Modélisation Cible Modèles Logiques de Données (MLD) validés par le Tech Lead. Mapping Source-to-Target détaillé. Itératif : 1er Draft RCU mi-Mars 2026 Définition du RCU (Vision 360) Spécification SQL des règles d'unicité client (Clés de réconciliation). Matrice de gestion des cas particuliers (Multi-comptes, Flottes). MVP RCU : Fin Mars 2026 Gouvernance des Données Dictionnaire de données (Business Glossary) intégré dans AIDA et ODG Règles de Qualité (DQ Rules) définies pour chaque objet métier Continu Exploration & Prototypage Requêtes SQL d'analyse d'impact. Datasets de test pour validation métier. A la demande Domaines de compétences et savoir faire de la société prestataire, nécessaires à la bonne réalisation de la prestation : Indispensable : Modélisation de Données Expert : Maîtrise des concepts théoriques (Merise, 3NF) et dimensionnels (Star Schema, Kimball). Capacité à simplifier des modèles complexes. SQL Avancé : Capacité à manipuler la donnée (Requetage complexe, Window Functions) pour valider ses propres modèles (pas de spécifications "papier" uniquement). Analyse Fonctionnelle : Capacité à dialoguer avec le Métier (Marketing, Finance) pour extraire les règles de gestion. Expérience avérée dans un cadre de travail Agile / Scrum. Connaissance su secteur B2B/ TELECOM : Compréhension des notions de Hiérarchie de comptes, Parcellaire, SIRET/SIREN. Connaissance de l’environnement BIGQUERY Savoir-être : Esprit de synthèse. Force de proposition (ne pas attendre que le métier dicte le modèle). Pragmatisme (livrer de la valeur incrémentale).
CDI

Offre d'emploi
ALTERNANCE - Data Scientist (H/F)

█ █ █ █ █ █ █
Publiée le
Laravel
Python
SQL

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Offre premium
CDI
Freelance

Offre d'emploi
Business Analyst / Data (F/H)

Argain Consulting Innovation
Publiée le
Business Analyst
Data analysis
SAP

1 an
40k-45k €
420-450 €
Pays de la Loire, France
Dans le cadre d’un projet autour des flux data et de l’environnement SAP, nous recherchons un Business Analyst / Data Analyst disposant d’une bonne expertise SAP et Talend . Missions Recueillir et analyser les besoins métiers liés aux flux de données Faire le lien entre les équipes métiers, data et l’équipe SAP Challenger les solutions proposées par l’équipe SAP Participer à la conception et à l’optimisation des flux data Réaliser le paramétrage et le développement Talend Contribuer à la documentation et au suivi des évolutions
Freelance
CDI

Offre d'emploi
Consultant Senior Data & Finance – Étude de Faisabilité SI Finance

VISIAN
Publiée le
Architecture
Data management

3 ans
40k-44k €
450-490 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre d’un programme stratégique de transformation des systèmes d’information Finance, une organisation internationale souhaite étudier l’intégration de données financières issues de multiples entités opérationnelles vers des datamarts Finance Groupe. L’environnement est caractérisé par : une forte hétérogénéité des systèmes (multi-ERP), des niveaux de maturité variables selon les entités, une gouvernance des données décentralisée. La mission s’inscrit dans une phase de cadrage stratégique, exclusivement orientée analyse et aide à la décision (aucune activité de développement ou de build). Missions Analyser les processus Finance (comptabilité fournisseurs, clients, grand livre) au sein de différentes entités Identifier les besoins métiers liés à l’alimentation de datamarts Finance Évaluer la qualité, la disponibilité et la cohérence des données existantes Étudier les architectures SI et data en place (ERP, flux, stockage) Identifier et comparer différents scénarios d’intégration des données (batch, API, cloud) Analyser les contraintes techniques, organisationnelles et réglementaires Évaluer les modèles de gouvernance et les règles de gestion des données Identifier les risques, dépendances et proposer des plans de mitigation Construire des scénarios de faisabilité (coûts, complexité, scalabilité) Produire une recommandation argumentée pour orienter la décision (Go / No Go) Contribuer aux comités de pilotage et aux reportings d’avancement Livrables attendus Analyse des processus Finance (AP / AR / GL) Cartographie des systèmes (ERP et data) Évaluation de la qualité et de la structure des données Scorecards de faisabilité par périmètre Étude des patterns d’intégration Schémas d’architecture cible (niveau macro) Analyse des risques et contraintes Scénarios comparatifs de mise en œuvre Rapport de faisabilité consolidé avec recommandation Supports de pilotage projet Environnement technique ERP : multi-environnements (type SAP, Sage, IFS, Navision) Data : plateformes data groupe / data cloud Intégration : batch, API, flux inter-systèmes, cloud-to-cloud Gouvernance : standards data et cybersécurité groupe

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

2461 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous