Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 629 résultats.
Freelance

Mission freelance
Data Engineer / Data Platform Engineer (H/F)

INFOGENE
Publiée le
Data Engineering
Finance
Python

6 mois
Paris, France
Contexte Dans un environnement financier exigeant, CFM souhaite moderniser et fiabiliser son système de gestion des prix de marché (equities, futures, bonds, IRS…). Le système actuel, basé sur des infrastructures legacy, manque de visibilité, de performance et de robustesse, rendant les opérations complexes et peu fiables pour les équipes support et data. Objectif de la mission Concevoir et développer une plateforme centralisée de gestion et de visualisation des prix , permettant de suivre l’ensemble du cycle de vie des données et d’améliorer les opérations quotidiennes. Missions principales Concevoir une architecture cible scalable et robuste Développer une API Python exposant les données de prix et leur cycle de traitement Implémenter des services backend pour : suivi des statuts des prix gestion des événements et anomalies opérations en masse (validation, rejet, reprocessing) Mettre en place des interfaces utilisateurs : dashboard opérateur interface d’administration visualisation des workflows et historiques Améliorer la traçabilité des données (origine, transformation, blocages) Optimiser les performances et la gestion des volumes Documenter les solutions et accompagner les équipes
Freelance

Mission freelance
Data Scientist Senior – Recherche Opérationnelle & E-commerce

BEEZEN
Publiée le
Google Cloud Platform (GCP)

6 mois
400-550 €
Île-de-France, France
● Technologies Langages : Python, Java, SQL. Maths & RO : Métaheuristiques, Programmation linéaire, Optimisation combinatoire, Inférence causale. Outils RO : OR-Tools, ou solveurs commerciaux. Cloud & Data : GCP, BigQuery, Docker, Kubernetes, Airfl ow (Cloud Composer). ● Maîtrise impérative de l’environnement GCP. ● Formation : Bac+5 (Master ou École d'Ingénieur) spécialisé en Recherche Opérationnelle, Mathématiques Décisionnelles ou Supply Chain Analytics. ● Expérience : au moins 7 ans en Data Science
Freelance

Mission freelance
Lead data engineer Databricks

LeHibou
Publiée le
Amazon S3
Collibra
Databricks

36 mois
650-800 €
Colombes, Île-de-France
Dans le cadre d’un programme de replatforming B2C, une organisation internationale construit une Data Platform centralisée à l’échelle mondiale, aujourd’hui fragmentée. L’objectif est de mettre en place une plateforme cloud-native, data-centric et scalable, au service des équipes data de plusieurs géographies, notamment la France, la Belgique et l’Australie. Le Core Model du programme repose sur un modèle de données unifié couvrant notamment les données clients, contrats et facturation. Le Lead Data Engineer intervient comme référent technique de la data platform, avec une responsabilité complète sur l’architecture, le delivery et la qualité des données. Stack technique • Data Platform : Databricks (lakehouse), Amazon S3, Amazon Managed Apache Flink • Gouvernance des données : Unity Catalogue, Collibra • Visualisation : Power BI • Cloud : AWS • Streaming : Confluent Kafka • Langages : Python, SQL • IA & coding : GitHub Copilot, Claude Code, outils LLM • Collaboration : Jira, Confluence, SonarQube Missions principales Stratégie & Architecture Data • Définir l’architecture de la data platform greenfield (lakehouse, zones bronze/silver/gold, data contracts) • Co-construire le Core Data Model commun aux différentes géographies tout en intégrant les spécificités locales • Mettre en place la gouvernance des données, la qualité et l’observabilité • Répondre aux besoins analytiques et fonctionnels des équipes métier via une approche de type catalogue as a service Leadership & Delivery • Être le référent technique data du programme • Choisir les partenaires et structurer une feature team de 5 à 6 personnes • Assurer la responsabilité end-to-end des pipelines, de l’ingestion à la restitution • Gérer le monitoring, la performance et l’optimisation FinOps des workloads data • Mettre en place les pratiques DataOps : automatisation des tests, CI/CD data, infrastructure as code IA & Vélocité • Exploiter GitHub Copilot, Claude Code ou équivalents pour accélérer le développement des pipelines et modèles • Intégrer des cas d’usage IA/ML dans la data platform, incluant data science, feature store et jeux de données prêts pour les LLM • Automatiser la génération de code, les tests de qualité des données et la documentation • Conserver la maîtrise technique tout en augmentant la vélocité grâce à l’IA
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

35k-42k €
Strasbourg, Grand Est
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Strasbourg - Expérience de 2 ans minimum Vous aimez transformer les données en décisions concrètes ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, intervenant dans le secteur bancaire. Contexte : Vous interviendrez directement sur des projets d’intégration et d’exploitation de données, contribuant à rendre l’information accessible et exploitable pour les équipes métier. Voici un aperçu détaillé de vos missions : - Concevoir et maintenir des processus d’intégration de données (ETL / ELT), idéalement avec Semarchy xDI (anciennement Stambia) - Participer à la modélisation de systèmes décisionnels et à l’organisation des données - Manipuler et optimiser les bases de données avec le SQL - Collaborer avec les équipes BI sur des outils comme SAP/BO Situation géographique : Strasbourg (67)
CDI

Offre d'emploi
Alternant(e) - Data Engineer (H/F)

█ █ █ █ █ █ █
Publiée le
Data management
Java
Python

Lestrem, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Architecte Solution Data

CHARLI GROUP
Publiée le
Exadata
IBM DataStage
Java

Paris, France
Avec la livraison récente de la toute nouvelle Data Factory, qui consiste en un datawharehouse transversal à l’entreprise ainsi qu’une multitude de services et clients associés, en production ou en devenir Compétences clefs : • Maitrise des technologies data plateformes avec un atout majeur sur les solutions IBM (ETL Datastage PX) • Modélisation des données, data linéage, Data qualité… • Vision : capacité à prendre de la hauteur et référent/garant sur les choix d’architecture • Capacité d’influencer les choix d’architecture et traduire les besoins métier en choix d’architecture fonctionnelle et technique • Faciliter et accompagner les équipes de dev dans le cycle de développement.
Freelance
CDI

Offre d'emploi
Data Ingenieur Python

CHARLI GROUP
Publiée le
Apache Kafka
ELK
Python

3 ans
Paris, France
Ingénieurie Data expérimenté pour conception, construction et maintenance d' une infrastructure de données robuste et performance dans un environnement entièrement on-premise. Étroite collaboration avec les équipes Data pour garantir des pipelines fiables et de haute qualité sur notre infrastructure autogérée. Profil recherché : - Conception et construction des pipelines de données scalables pour le traitement batch et temps réel - Dévelopement et maintenance des workflows avec Apache Airflow (orchestration) et Apache Flink (traitement de flux) - Mise en place et opération des clusters Apache Kafka pour le streaming d'événements à haut débit - Déployement et administration la stack ELK (Elasticsearch, Logstash, Kibana) pour l'ingestion de logs, l'indexation, la recherche et l'observabilité - Écriture du code Python propre, efficacité et test pour la logique ETL/ELT et les outils internes - Garantie de la qualité des données, la fiabilité des pipelines et la résilience de l'infrastructure - Collaboration avec les équipes DevOps sur la planification de capacité et les opérations cluster - Accompagnement et augmentation en compétences des ingénieurs moins expérimentés
CDI

Offre d'emploi
Sales Data & Commissions Manager H/F

█ █ █ █ █ █ █
Publiée le

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Consultant IA H/F

TOHTEM IT
Publiée le

35k-45k €
Toulouse, Occitanie
Contexte Une mission est proposée autour de l’intégration de l’intelligence artificielle afin d’améliorer l’efficacité des activités liées à l’IT. Ta mission Tu contribues à évaluer et structurer les gains apportés par l’usage de l’IA, notamment en termes de performance et de retour sur investissement. Tes principales activités : Définir des indicateurs pertinents pour mesurer l’impact de l’IA sur les activités. Analyser des données issues de différents outils afin d’identifier des tendances et des axes d’amélioration. Évaluer les coûts liés à l’usage de l’IA et les mettre en perspective avec les gains observés. Produire des analyses claires et proposer des recommandations pour orienter les décisions.
CDI
Freelance

Offre d'emploi
Senior Technical Business Analyst – Market Data to Data & Analytics Platform Migration (Trading) – Zurich Area / Remote

Avanda
Publiée le

Zurich, Suisse
Avanda is a Swiss professional services consultancy. We are currently looking for a Senior Technical Business Analyst to join our international team at our global end client in the Zurich area. This is a long term opportunity (project goes into 2028). Remote work accepted with once every 4-6 weeks onsite. THE ROLE You will join a multi-year Market Data to Data & Analytics Platform Migration programme in the Trading sector. As the Technical Business Analyst, you will support the Project Manager and workstream leads on the technical and business-related topics across the migration, with a focus on reconciliation, sign-off, requirements engineering, and unblocking the technical teams when business or risk context is needed. YOUR RESPONSIBILITIES Support reconciliation topics between legacy market data sources and the new platform, and bring them to sign-off with business and risk stakeholders Gather and clarify requirements from business and risk users, and translate them for the federated technical teams Support business users on data issues and act as the bridge to the technical teams Unblock technical teams on open business or risk questions Support the PM on technical follow-ups, open item tracking, and stakeholder clarifications. YOUR PROFILE Business Analyst background with solid technical understanding (data platforms, ingestion, APIs) Experience in Market Data, Risk, or Trading environments Comfortable engaging both business / risk users and development teams Able to work independently on requirements engineering and reconciliation / sign-off topics Fluent English (mandatory); German is a plus If this sounds like your next challenge and you would like to know more please send us your updated cv and we will call you shortly to discuss it in more details.
Freelance

Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/la

WorldWide People
Publiée le
Data science

6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
CDI
Freelance

Offre d'emploi
Data Scientist

VISIAN
Publiée le
Dataiku
Deep Learning
Elasticsearch

1 an
Paris, France
Missions Conception et développement de services Data et IA pour la connaissance clients et la performance business Pilotage de la performance commerciale Détection d’insights, recommandations, prédictions Détails techniques Machine Learning : IA générative et agentique : techniques de mises en œuvre de LLMs, architectures RAG et agentiques, … Techniques NLP / NLU : embeddings, transformers, BERT, … Machine learning : régression, classification, clustering, détection d’anomalies, moteur de recommandations, séries temporelles Deep learning (architectures, transfert learning, fine tuning, …) IA responsable et de confiance, IA explicable, maîtrise des biais Maîtrise de Python pour la data science (sklearn, pytorch, keras, LangChain, LangGraph, …) Bases vectorielles et d’indexation texte et embeddings : Elasticsearch, Faiss, … Expérience avec la plateforme Dataiku Outils informatiques Langage : Python Prototypage : Gradio, Streamlit Outil de versioning : git Cloud : AWS Bedrock Expérience avec une architecture On prem serait un plus Curiosité intellectuelle, autonomie et réactivité Capacité de communication : capacité à analyser et synthétiser, pédagogie Force de proposition : capacité à proposer des solutions innovantes
Freelance

Mission freelance
Expert Data Engineer – Looker Core

Nicholson SAS
Publiée le
BigQuery
IA
Legacy System Migration Workbench (LSMW)

6 mois
700-850 €
Paris, France
Contexte de la mission Dans le cadre d’un projet stratégique de migration vers le Cloud (« Data Move To Cloud »), vous rejoignez une entité majeure du secteur du transport aérien. Votre rôle sera d’évaluer et d’accompagner l’adoption de Looker Core comme futur standard de Dataviz du groupe. Missions principales Accompagnement de POCs : Piloter le développement technique et soutenir les équipes métiers dans la réalisation de leurs preuves de concept. Expertise Conseil : Apporter un regard critique et structurant sur l'architecture, la sécurité et l'optimisation FinOps liées à l'outil. Acculturation & Pédagogie : Former les utilisateurs finaux et assurer l'interface technique avec les équipes IT (Ops, Architectes). Étude Stratégique : Évaluer la capacité de Looker à répondre aux nouveaux enjeux (analyses ad-hoc, IA conversationnelle) et sa pertinence pour remplacer les solutions legacy (SAP BO, Spotfire). Informations pratiques Lieu : Paris (Rythme hybride : 2 à 3 jours de télétravail / semaine). Démarrage : ASAP. Durée : Jusqu’au 11/11/2026 (Visibilité long terme). TJM : Selon profil (séniorité et expertise) Note : Looker Studio est hors périmètre. Le client cherche un profil expert en Looker Core/ LookML. Looker Studio et ses dérives ne rentrent pas en perspective.
Freelance

Mission freelance
Développeur Senior Smart Automation & IA Agentique / Dataiku certifié/ LLM Mesh / Python

Octopus Group
Publiée le
Agent IA
CI/CD
Dataiku

6 mois
520-620 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte dans le domaine de la finance, un développeur sénior en Smart Automation & IA Agentique pour concevoir, mettre en œuvre et industrialiser des solutions avancées d'automatisation des processus. Ces solutions s'appuient principalement sur la plateforme Dataiku et ses fonctionnalités LLM Mesh, qui permettent l'intégration de modèles linguistiques et d'agents IA dans des flux de travail automatisés. L'objectif de l'équipe est de créer des automatisations intelligentes capables d'orchestrer les données, les systèmes d'application et les agents IA afin d'optimiser et de simplifier les processus opérationnels. Principales responsabilités : 1. Concevoir des solutions d'automatisation intelligente : Concevoir des solutions d'automatisation des processus à l'aide de la plateforme Dataiku. Définir des architectures d'automatisation combinant : des pipelines de données l'orchestration des workflows l'intégration avec les systèmes d'application des agents IA Exploiter le LLM Mesh de Dataiku pour intégrer des modèles linguistiques dans les processus automatisés. 2. Développer des solutions d'IA agentique : Concevoir et mettre en œuvre des agents IA capables d'exécuter ou d'assister des tâches au sein de processus automatisés. Développer des workflows intégrant des LLM via Dataiku LLM Mesh. Mettre en œuvre une logique d'orchestration entre : les agents IA les pipelines de données les systèmes d'application. 3. Industrialisation et intégration : Construire et maintenir des pipelines et des workflows automatisés sur la plateforme Dataiku. Intégrer des solutions d'automatisation aux systèmes informatiques existants via des API et des services. Appliquer les meilleures pratiques en matière d'industrialisation : contrôle de version surveillance automatisation du déploiement gouvernance des workflows. 4. Collaborer avec les équipes informatiques : Travailler en étroite collaboration avec les équipes informatiques en charge des systèmes impliqués dans les processus automatisés. Concevoir des mécanismes d'intégration avec les applications existantes. Contribuer à la définition de modèles d'intégration et de normes techniques. 5. Contribuer à la plateforme d'automatisation intelligente : Contribuer à l'évolution des capacités d'automatisation intelligente et d'IA agentique. Définir des normes de développement et d'architecture pour l'automatisation. Accompagner les profils techniques juniors. Promouvoir les meilleures pratiques en matière d'automatisation et d'utilisation des modèles de langage (LLM). Environnement technique : Plateforme Dataiku LLM Mesh API et services d'application Environnements cloud (AWS, Azure ou GCP)
Freelance

Mission freelance
Consultant data tracking & analytics

SMH PARTICIPATION
Publiée le
BigQuery
Google Tag Manager
Javascript

6 mois
100-380 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Au sein de la Direction du Digital et des Systèmes d'Information . Avec l'équipe en charge de la collecte, de la transformation et de la restitution des données collectées sur les canaux digitaux. Nous recherchons une prestation sur la suite Data de Google (Google Tag Management, Looker Studio et BigQuery). Objectifs et livrables Exploitation des données Le fonctionnement en mode SAFe implique des livraisons à fréquences régulières. Dans ce cadre, de nouvelles données sont créées en permanence et nécessitent d’être mises à disposition pour répondre aux besoins de reporting. Les missions sont : Collaborer avec les autres membres de l’équipe sur les données nécessaires à la mesure des features : définition des objectifs / KPI’s Accompagner dans la définition des besoins en tracking Recetter les données lorsque la feature est en phase de test Recetter les données après la mise en production de la feature Préparer et ingérer des données dans Big Query (en Node JS) Mise à disposition des données fiabilisées dans Looker Studio Participer à l’analyse des données produites, en tirer des enseignements En complément : Veiller au bon fonctionnement de l’ingestion de données quotidiennes, appliquer un correctif si nécessaire Ingérer de nouvelles sources de données nécessaires au monitoring global des KPI’s du train Gérer et optimiser Les notions d’analyse et d’amélioration sont centrales pour accompagner le développement du train, ainsi il est aussi demandé de : Participer à l’analyse des données issues des monitoring afin d’en tirer des enseignements Participer à l’amélioration continue (dans les tracking, les process ou le fonctionnement de l’équipe) Communiquer et proposer Les déploiements en mode agile nécessite une organisation pluri-métier autour de la roadmap du train, la communication avec les autres est une notion clé. Nous recherchons un profil qui : Communiquer avec les autres corps de métier (PO, UX, testeurs, architectes, développeurs) dans la construction des features Pour les compétences demandées, il faut créer Piano Analytics à la place de Adobe Analytics
Freelance

Mission freelance
consultant data migration SAP

Hanson Regan Limited
Publiée le
Migration
SAP

6 mois
650-800 €
Paris, France
Hanson Regan recherche un consultant data migration SAP pour une mission de 6 mois renouvelable à Paris. Vous participerez aux activités de migration de données au sein d'un projet SAP, en vous concentrant exclusivement sur les modules PP et QM. Vos missions : • Identification et analyse des données à migrer (articles, nomenclatures, gammes, données qualité) • Définition et modélisation des règles de transformation • Préparation et chargement des données (LSMW / Migration Cockpit) • Contrôle qualité des données et gestion des anomalies • Participation aux phases de test (SIT/UAT) et aux répétitions de migration (basculement) 3 jours de présence par semaine sur site au sud de Paris, 2 jours en télétravail Conformément aux exigences du client, les freelances doivent pouvoir travailler via leur propre entreprise. Nous ne pouvons malheureusement pas accepter les candidatures via des sociétés de portage salarial pour ce poste. Veuillez nous contacter au plus vite si vous êtes intéressé ou si vous pouvez recommander une personne correspondant à ce besoin.
2629 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous