Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 978 résultats.
CDI

Offre d'emploi
Actuaire - Data Scientist - Prévoyance H/F

█ █ █ █ █ █ █
Publiée le
Microsoft Excel

42k-75k €
Strasbourg, Grand Est

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Lead / Data Engineer senior

Comet
Publiée le
Apigee
Google Cloud Platform (GCP)
Python

5 mois
210-630 €
Île-de-France, France
Bonjour à tous, notamment aux Data Engineers Seniors ⚙️ spécialisés sur GCP / BigQuery 🔎 Je cherche un Data Engineer Senior avec une forte dimension expertise technique et expérience en rôle de lead, pour rejoindre une data platform stratégique en pleine montée en puissance. L’objectif de la plateforme est de centraliser, transformer et exposer la donnée à grande échelle afin de supporter des cas d’usage analytics, BI et IA dans un environnement data moderne. La plateforme est déjà en place et entre dans une phase clé d’optimisation, de scalabilité et d’enrichissement des usages (notamment autour de l’IA). 💻 Ce que tu vas faire : - Concevoir et faire évoluer des pipelines data robustes, scalables et sécurisés - Développer des traitements avancés sur BigQuery (CTE, window functions, optimisation performance & coûts) - Optimiser les requêtes à grande échelle via analyse des plans d’exécution - Concevoir des modèles de données (star / snowflake) pour des usages BI (PowerBI, Looker) - Intégrer des sources de données multiples (API, cloud, bases, fichiers…) - Industrialiser les workflows via CI/CD et Infrastructure as Code (Terraform, Cloud Build) - Contribuer à l’intégration de cas d’usage IA dans les pipelines data - Participer aux choix d’architecture et structurer les bonnes pratiques data 🎯 Stack & environnement : BigQuery / SQL / Python / GCP / Cloud Build / Cloud Workflows / Apigee / Terraform / GitHub / PowerBI / Looker ➕ Bonus : expérience sur des environnements media / digital data (Google Analytics, Salesforce, CRM, social media) 📍 IDF : 2 jours de TT 🏡 📅 Démarrage : ASAP Qu'en penses-tu ? Une belle journée,
CDI
Freelance

Offre d'emploi
Data analyst Qlik Sense H/F

Le Groupe SYD
Publiée le
Python
Qlik Sense
SQL

12 mois
40k-52k €
375-450 €
Angers, Pays de la Loire
🌟 Dans le cadre de notre développement, nous recherchons pour l’un de nos clients à Angers (49), un Data Analyst Qlik Sense H/F . Démarrage : ASAP Contrat : CDI dans le cadre d’une pré-embauche, ou prestation (indep/portage) Lieu : Angers (49) Télétravail : 2 jours/semaine (non-négo) Dans le cadre d’un renfort d’équipe, vous interviendrez en tant que Data Analyst Qlik Sense H/F . À ce titre, vos missions seront : Projets Recueillir et analyser les besoins métiers, piloter les développements et analyser ad hoc BI & Data Créer des tableaux de bord, contribuer à la modélisation, à la gouvernance et aux outils data Accompagnement Participer au support des utilisateurs, animer le réseau et participer à la stratégie data
Freelance
CDI
CDD

Offre d'emploi
AI / Data Engineer – IA Générative & Databricks (Python / ML / AWS) – H/F

SMARTPOINT
Publiée le
IA Générative
Large Language Model (LLM)
Pandas

1 an
50k-60k €
400-550 €
Île-de-France, France
Dans le cadre du développement de projets data innovants, nous recherchons un AI / Data Engineer spécialisé en Intelligence Artificielle Générative (H/F) . Vous interviendrez sur la conception et la mise en œuvre de solutions data avancées , avec un focus sur la plateforme Databricks et sur des cas d’usage en IA Générative (LLM, RAG, fine-tuning) . Votre rôle consistera à accompagner les équipes dans le cadrage, le développement et la mise en production de modèles d’intelligence artificielle , tout en contribuant à l’industrialisation des solutions et à l’évolution des plateformes data. Conseil et cadrage des cas d’usage IA Accompagner les équipes dans l’identification et le cadrage de cas d’usage data et IA Générative Conseiller sur les choix d’architecture, de modèles et de stratégies RAG ou fine-tuning Participer à la définition de solutions innovantes sur la plateforme Databricks Conception et développement de modèles IA Développer des modèles de Machine Learning et Deep Learning Concevoir des solutions basées sur LLM et architectures Transformers Implémenter des cas d’usage d’ IA Générative (RAG, fine-tuning, prompt engineering) Collecte et préparation des données Collecter, nettoyer et transformer les données nécessaires à l’entraînement des modèles Réaliser des analyses exploratoires et préparer les datasets pour l’entraînement Industrialisation et MLOps Mettre en production les modèles d’intelligence artificielle Mettre en place des processus de monitoring et de maintenance des modèles Contribuer à l’industrialisation des pipelines data et des modèles IA
CDI
Freelance

Offre d'emploi
Data analyst Qlik Sense H/F

Le Groupe SYD
Publiée le
Python
Qlik Sense
SQL

12 mois
40k-52k €
375-450 €
Nantes, Pays de la Loire
🌟 Dans le cadre de notre développement, nous recherchons pour l’un de nos clients à 30 minutes de Nantes (44), un Data Analyst Qlik Sense H/F . Démarrage : ASAP Contrat : CDI dans le cadre d’une pré-embauche, ou prestation (indep/portage) Lieu : 30 minutes de Nantes (44) Télétravail : 2 jours/semaine (non-négo) Dans le cadre d’un renfort d’équipe, vous interviendrez en tant que Data Analyst Qlik Sense H/F . À ce titre, vos missions seront : Projets Recueillir et analyser les besoins métiers, piloter les développements et analyser ad hoc BI & Data Créer des tableaux de bord, contribuer à la modélisation, à la gouvernance et aux outils data Accompagnement Participer au support des utilisateurs, animer le réseau et participer à la stratégie data
CDI

Offre d'emploi
Sales Data & Commissions Manager H/F

█ █ █ █ █ █ █
Publiée le

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
ML platform senior DevOps engineer

Cherry Pick
Publiée le
AWS Cloud
MLOps
Terraform

12 mois
Paris, France
Équipes ML Platform et ML Lab L'équipe ML Platform est centrée sur l'amélioration de la productivité des chercheurs dans l'entraînement de modèles de machine learning (ML) en développant des bibliothèques, des services et des bonnes pratiques, et en assurant une production ML robuste à grande échelle. L'équipe est composée de profils travaillant sur des projets transverses ainsi que d'ingénieurs accompagnant les équipes fonctionnelles dans leur parcours ML. Le ML Lab est une équipe de recherche axée sur des travaux académiques, nécessitant donc des outils et une infrastructure dédiés en dehors de l'infrastructure du client, afin de pouvoir accéder librement aux ressources open source de pointe et collaborer avec des collaborateurs externes. Mission En tant qu'Ingénieur DevOps au sein de l'équipe ML Platform, vous tirerez parti de votre solide bagage en ingénierie logicielle, de votre maîtrise de Python et de votre expérience pratique avec les fournisseurs cloud pour faciliter le travail quotidien de l'équipe ML Lab sur — leur néocloud de référence — ainsi que les liens nécessaires avec l'infrastructure du client, principalement hébergée sur AWS. Responsabilités principales Configuration du fournisseur cloud (Lambda) pour l'accès GPU par le ML Lab. Fonctionnalités FinOps et protection minimale contre les erreurs humaines. Optimisation des images Docker pour un démarrage à froid plus rapide. Mise en place et maintenance de systèmes de monitoring pour l'entraînement des modèles. Participation mineure aux projets plus larges de l'équipe ML Platform sur AWS pour les autres chercheurs du client (CI/CD, outillage sur AWS, etc.). Promotion et mise en œuvre de processus d'automatisation. Renforcement des protocoles de sécurité via des évaluations de vulnérabilités et la gestion des risques pour déployer des mesures de cybersécurité.
Freelance
CDI

Offre d'emploi
📩 Data Engineer – Data Quality & Governance

Gentis Recruitment SAS
Publiée le
Agile Scrum
Apache Spark
API

1 an
Paris, France
Contexte de la mission Dans le cadre du développement de son équipe Data Accelerator (DAC), notre client recherche un Data Engineer confirmé orienté Data Quality et Data Governance. DAC est une équipe transverse en charge d’accompagner les équipes métiers et IT sur l’ensemble de la chaîne de valeur de la donnée : collecte, ingestion, transformation, industrialisation, gouvernance et optimisation des performances. L’environnement s’appuie principalement sur les technologies AWS, Databricks, Dataiku et Collibra, avec un fort enjeu autour de la qualité, de la fiabilisation et de la structuration des données au sein du Data Lake. Le consultant interviendra dans un contexte stratégique avec une forte collaboration avec les équipes Data Analysts, Data Scientists ainsi qu’avec le Chief Data Officer. Missions principalesQualification et gestion des données Captation des données structurées et non structurées provenant de multiples sources Intégration et supervision des flux de données Structuration de la donnée (normalisation, sémantique, référentiel) Cartographie des données disponibles Nettoyage des données (suppression des doublons, contrôle qualité) Validation et qualification des données avant intégration dans le Data Lake Participation à la création et à l’amélioration des référentiels de données Industrialisation et performance Développement et optimisation des traitements data Amélioration des performances et maîtrise des coûts des plateformes data Participation aux développements correctifs, évolutifs et adaptatifs Contribution aux dossiers d’architecture Production des tableaux de bord de suivi Gouvernance & collaboration Participation à la définition de la politique data Respect des standards de sécurité, gouvernance et conformité Collaboration avec les équipes métiers, IT et gouvernance data Contribution à l’industrialisation des cas d’usage Data & GenAI
CDI

Offre d'emploi
Architecte Data H/F

TOHTEM IT
Publiée le

40k-50k €
Toulouse, Occitanie
Le contexte Tu interviens sur la conception de plateformes data modernes dans un environnement industriel aéronautique. Tes missions Dans ce rôle, tu interviens sur plusieurs types de missions : Tu conçois des architectures de données robustes, scalables et performantes pour répondre aux besoins d’analyse. Tu définis les solutions d’extraction, de transformation et de chargement des données (ETL/ELT) depuis différentes sources vers les entrepôts de données, en lien avec les équipes data engineering. Tu collabores étroitement avec les équipes métiers afin de comprendre leurs besoins et de structurer la donnée au sein du système d’information. Tu veilles à la sécurité et à la conformité des données en mettant en place des dispositifs adaptés de contrôle d’accès et d’audit. Tu surveilles les performances des systèmes, identifies les points de blocage et proposes des optimisations. Tu restes en veille sur les évolutions des technologies data, BI et cloud afin de contribuer à l’amélioration continue. Tu participes à la montée en compétences des équipes data (data engineers, data analysts) sur les outils et bonnes pratiques. Tu conçois des plans de migration entre différentes technologies (par exemple d’outils on-premise vers des solutions cloud). Tu contribues activement aux communautés d’expertise en partageant tes idées et retours d’expérience.
Freelance

Mission freelance
Data Engineer GCP Airflow (H/F)

ODHCOM - FREELANCEREPUBLIK
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

12 mois
380-420 €
Paris, France
Data Engineer GCP/Airflow – (Freelance) Mission longue - Démarrage ASAP Nous recrutons pour un client majeur du secteur de la construction et des infrastructures , dans le cadre du renforcement de ses équipes data. Mission freelance de 12 mois minimum (renouvelable), démarrage ASAP 2 jours de télétravail flexible et Localisation Ligne 14 Profils juniors acceptés, 1 an d'expérience min. (stage, alternance, première expérience compris) Formation Bac +5 min. requise Contexte & mission Vous interviendrez sur des outils liés à la gestion de données internes, avec notamment : Analyse et traitement de logs Identification de dysfonctionnements Intégration et transformation de données Alimentation de tables BigQuery Support sur des outils internes (Dataiku, tableaux de suivi…)
CDI

Offre d'emploi
Chef de Projets Data H/F

JEMS
Publiée le

45k-60k €
Nantes, Pays de la Loire
Nous recherchons un Chef de Projets Data pour venir renforcer nos équipes Delivery. Vous serez responsable de la gestion complète des projets de déploiement de nos plateformes data chez nos clients, en garantissant le respect des délais, du budget et de la qualité des livrables. Nous attendons de vous des compétences fortes en Management et Leadership. Vous aurez la charge de : • Superviser l'ensemble du cycle de vie des projets en mode forfaitaire ou en mode dispositif à engagements, jusqu'au déploiement en production • Définir et formaliser les besoins clients en étroite collaboration avec les équipes techniques et les stakeholders • Chiffrer les différentes étapes du projet, identifier les compétences nécessaires, élaborer les plannings, définir le plan de charge (montée en charge des ressources nécessaires) • Assurer un suivi rigoureux des coûts, des délais et des risques, en identifiant et en gérant les éventuels écarts de périmètre • Initialiser et maintenir le plan d'assurance qualité à jour • Encadrer et animer les équipes projets, en motivant et en assurant un suivi efficace de la performance de l'équipe • Garantir la qualité des livrables en supervisant les tests, la validation des fonctionnalités et la conformité aux exigences spécifiées • Participer à l'amélioration continue des processus et méthodologies de gestion de projets (plan de progrès) • Préparer des rapports réguliers sur l'état d'avancement des projets et les résultats obtenus. Référence de l'offre : v6lc4tkq0y
Freelance

Mission freelance
ML Platform Senior DevOps Engineer

ARGANA CONSULTING CORP LLP
Publiée le
AWS Cloud
Cloud
Docker

6 mois
400 €
Paris, France
Nous recherchons un(e) DevOps Engineer Senior pour intervenir au sein d’une équipe ML Platform & ML Lab, dans un environnement technique avancé orienté Machine Learning et infrastructure cloud à grande échelle. 🎯 Votre rôle 🔵 Configuration et gestion de l’infrastructure cloud (Lambda) pour l’accès GPU des équipes ML 🔵 Mise en place de bonnes pratiques FinOps et protection contre les erreurs critiques 🔵 Optimisation des images Docker pour réduire les temps de cold start 🔵 Mise en place et maintien des systèmes de monitoring des entraînements de modèles 🔵 Contribution aux projets ML Platform sur AWS (CI/CD, tooling, infrastructure) 🔵 Automatisation des process et amélioration continue des workflows 🔵 Renforcement de la sécurité (audit, vulnérabilités, gestion des risques) 🚀 Votre impact 🔵 Améliorer la productivité des équipes ML 🔵 Garantir la robustesse et la scalabilité des environnements de training 🔵 Accélérer les workflows via automation et CI/CD 🔵 Renforcer la fiabilité et la sécurité des infrastructures cloud 🛠️ Stack & environnement 🔵 AWS 🔵 Terraform 🔵 Docker (optimisation d’images large scale) 🔵 GitLab CI / Jenkins 🔵 Linux / UNIX 🔵 Monitoring & observability 🔵 Environnement ML / GPU / cloud (Lambda) 📌 Informations complémentaires 🔵 Mission freelance 🔵 Hybride ou remote selon organisation 🔵 Mission longue durée
Freelance

Mission freelance
Data Engineer / Data Platform Engineer (H/F)

INFOGENE
Publiée le
Data Engineering
Finance
Python

6 mois
Paris, France
Contexte Dans un environnement financier exigeant, CFM souhaite moderniser et fiabiliser son système de gestion des prix de marché (equities, futures, bonds, IRS…). Le système actuel, basé sur des infrastructures legacy, manque de visibilité, de performance et de robustesse, rendant les opérations complexes et peu fiables pour les équipes support et data. Objectif de la mission Concevoir et développer une plateforme centralisée de gestion et de visualisation des prix , permettant de suivre l’ensemble du cycle de vie des données et d’améliorer les opérations quotidiennes. Missions principales Concevoir une architecture cible scalable et robuste Développer une API Python exposant les données de prix et leur cycle de traitement Implémenter des services backend pour : suivi des statuts des prix gestion des événements et anomalies opérations en masse (validation, rejet, reprocessing) Mettre en place des interfaces utilisateurs : dashboard opérateur interface d’administration visualisation des workflows et historiques Améliorer la traçabilité des données (origine, transformation, blocages) Optimiser les performances et la gestion des volumes Documenter les solutions et accompagner les équipes
Freelance

Mission freelance
Data Scientist IA

Tritux France
Publiée le
DevOps
GenAI
Google Cloud Platform (GCP)

1 an
120-490 €
Paris, France
Socle technique – Data Science & IA Maîtrise de Python et SQL/BigQuery ; packaging, gestion des dépendances, clean code Maîtrise des algorithmes de ML : classification, régression, clustering, deep learning Connaissance des frameworks ML : Scikit-learn, TensorFlow/Keras, PyTorch Compétences avancées en GenAI : LLM, RAG, fine-tuning, prompt engineering, évaluation et déploiement de modèles génératifs Connaissance des concepts clés : Generative AI, agents, assistants, hallucinations, biais, limites des modèles Expertise en agents intelligents : conception de workflows multi-agents, frameworks (ADK, Gemini Enterprise…) Maîtrise des méthodes d'évaluation des agents et pipelines RAG (RAGAS, Langfuse, LLM as a judge) Développement back-end & intégration Conception et développement d'API REST/JSON, architecture orientée objet Développement d'applications GenAI : intégration agents/RAG, gestion de prompts et templates, itération Tests automatisés, revue de code, observabilité (logs, métriques, traces), gestion des erreurs Industrialisation & DevOps Maîtrise des pratiques DevOps/MLOps : CI/CD, Docker, Kubernetes, Git Mise en place et maintenance de pipelines (tests, qualité, déploiement) et gestion des environnements (dev/recette/prod) Architectures Cloud (GCP, AWS, Azure) et outils MLOps associés Monitoring et optimisation des performances de solutions IA en production Collaboration & méthodes Capacité à cadrer un besoin, proposer une solution technique et estimer une charge Travail en mode Agile, interaction avec les parties prenantes produit Anglais courant (lecture de documentation, échanges techniques)
Freelance
CDI

Offre d'emploi
Business Analyst Data CIB H/F

STORM GROUP
Publiée le
Data analysis
SQL

3 ans
40k-45k €
400-600 €
Île-de-France, France
Au sein d’une direction IT dédiée aux activités de marchés, vous rejoignez une squad Data/BI travaillant sur des sujets de valorisation et d’exploitation de la donnée client. L’équipe développe et maintient des solutions de Business Intelligence autour d’un data lake commercial, permettant aux métiers Front Office d’exploiter leurs données clients pour différents usages : Suivi de la rentabilité commerciale Analyse de la performance des équipes commerciales Mesure de l’efficacité des interactions commerciales Exploitation des données CRM (contacts, meetings, interactions clients) Les équipes sont composées de Business Analysts, Data Analysts et Développeurs, organisées en méthodologie Agile et réparties sur plusieurs sites en Europe. Missions Le consultant interviendra sur des activités de support, de maintenance évolutive et de projets, avec les responsabilités suivantes : Recueillir et analyser les besoins métiers Rédiger les spécifications fonctionnelles Définir la stratégie de tests et rédiger les cahiers de recette Piloter les phases de tests fonctionnels et valider les livrables Assurer le suivi du backlog et son actualisation Coordonner les différents acteurs projet Assurer le reporting d’avancement Accompagner la conduite du changement auprès des utilisateurs Réaliser le support fonctionnel de niveau 2 (dashboards BI, requêtes SQL, interfaces) Contribuer aux pratiques Agile
CDI

Offre d'emploi
Ingénieur Data & API (H/F)

SYAGE
Publiée le
Apache Kafka
API REST
GraphQL

Monaco-Ville, Monaco
Mission : Au sein de l’équipe d’Ingénierie Logicielle, vous interviendrez dans les projets digitaux sur l’intégration de flux de données inter-applicatifs et DATA, et la mise en œuvre de l’exposition d’API via une plateforme d’API Management (). Principales Activités : Vous serez chargé(e) de l’architecture et l’intégration des flux dans la plateforme KESTRA (batch, ETL, event streaming...) Vous assurerez l’implémentation script ETL Python dans le cadre des flux de données Vous prendrez en charge l’exposition et la création d’API sur la plateforme d’API Management avec notamment : sécurisation, filtrage, médiation de protocole Lien hiérarchique : Responsable Informatique Ingénierie logicielle Manager : Non
5978 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous