Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 666 résultats.
Freelance

Mission freelance
Proxy Product Owner Data / BI – Environnement Agile

Comet
Publiée le
CyberSoc

1 an
400-590 €
Île-de-France, France
Nous recherchons un(e) Proxy Product Owner expérimenté(e) pour intervenir sur un projet data stratégique, en phase BUILD, au sein d’un grand groupe international. Objectif de la mission Accompagner l’équipe produit dans la conception et la livraison de solutions data à forte valeur métier, avec un rôle clé d’interface entre les équipes techniques et les parties prenantes métier. Responsabilités principales Participation active aux cérémonies Agile (Scrum) Enrichissement et pilotage du backlog (Jira) Analyse des besoins data et des sources nécessaires à la construction de KPIs Définition des règles de transformation et critères d’acceptation Conception de modèles de données (Snowflake, Power BI) Contribution aux phases de tests (UAT) avec les stakeholders Suivi de l’orchestration et des flux de données Production et mise à jour de la documentation fonctionnelle
Freelance

Mission freelance
Data Engineer AWS / GenAI

Cherry Pick
Publiée le
Amazon S3
Apache Airflow
Apache Spark

12 mois
450-550 €
Paris, France
Dans le cadre du plan de transformation DATA de notre Client, notre client développe des applications et plateformes DATA pour rendre nos métiers (pilotage, marketing, commerce, etc.) autonomes dans l’analyse de leurs données et KPI. Les infrastructures et projets incluent : AWS, GitLab, Terraform, DBT, Snowflake, Python, Scala, Spark, PowerBI, AI/GenAI Architectures Big Data sophistiquées pour ingérer plus de 100 par jour (Datalake, Event-Driven, Streaming, etc.) Exemples de projets : Chatbot AI Socle vidéo, navigation et calcul des audiences Recommandation de programmes via IA Feature Store et modernisation des flux financiers Plateformes CRM et partage de données partenaires Kubernetes et applications de data self-service Missions En tant que Data Engineer , vous serez en charge de : Concevoir, développer et maintenir des pipelines de données scalables et performants (ingestion, traitement et stockage de données massives). Développer des architectures Big Data sur AWS (S3, EMR, Lambda, Kinesis, Batch…), Snowflake et Spark. Développer en Scala et Python pour le traitement massif des données. Automatiser les workflows et orchestrer les pipelines avec Airflow et DBT . Concevoir et exposer des APIs customer-facing performantes. Optimiser les performances et garantir la scalabilité pour gérer un volume important d’utilisateurs. Collaborer avec les équipes Data Science, Produit et DevOps pour une intégration fluide.
Freelance

Mission freelance
AI Product Owner

Codezys
Publiée le
Azure
Cloud
Data science

12 mois
Lille, Hauts-de-France
Principales missions : Vision & Stratégie Produit IA : Définir la stratégie des solutions IA en collaboration avec les équipes métier, en identifiant les opportunités dans les domaines du Risque, du Paiement, du Digital, etc., et en priorisant les projets selon leur valeur et faisabilité. Gestion du Backlog & Priorisation : Coordonner et prioriser les initiatives en Data Science et IA en traduisant les besoins métier en fonctionnalités, en maintenant le backlog et en arbitrant les priorités pour maximiser l’impact business à chaque sprint. Pilotage du Delivery Agile : Superviser la livraison des projets IA via des méthodologies agile (Scrum/Kanban), organiser les cérémonies, suivre l’avancement, lever les obstacles, et garantir le respect des délais, du budget et de la qualité, tout en communiquant avec les sponsors. Coordination Métiers–Data–IT : Servir d’interface entre les équipes Data Science, IT et métiers, en facilitant la co-construction de solutions adaptées, en intégrant les contraintes techniques et en assurant une mise en œuvre fluide. Crédit & Risque (Scoring) – Use cases « Machine Learning » classiques : Piloter l’évolution des modèles de scoring crédit (octroi, scores comportementaux), en concevant, expérimentant, déployant et en monitorant les modèles en collaboration avec Risque et Validation, en s’assurant qu’ils respectent les normes réglementaires et qu’ils améliorent la stabilité du coût du risque. IA Générative & Agents : Explorer et déployer des cas d’usage liés à l’IA générative, tels que chatbots, assistants cognitifs ou systèmes avec LLM/RAG, pour automatiser l’analyse de documents, soutenir les équipes internes ou enrichir le support client, en définissant objectifs et indicateurs de performance.
Freelance
CDI

Offre d'emploi
Chef de Projet Data Référentiel Tiers

VISIAN
Publiée le
RGPD

1 an
40k-45k €
310-540 €
Paris, France
Description du poste La mission se déroule au sein de l'équipe responsable d'une part de mener deux projets règlementaires et d'autres part, d'intervenir sur certains sujets de data quality sur un périmètre de données tiers critiques (données finance ou risque de crédit). Les évolutions sur les projets sont : RGPD Droit à l'oubli : révision et optimisation d'un traitement existant pour effacer des données Personnes du Référentiel Tiers clients du système d'information. Programme Groupe LTS/VDS/LOM qui vise à faire évoluer l'éco-système Tiers en ajoutant de nouvelles données dans le système d'information pour les partager avec le groupe à des fins de reporting règlementaires et financiers.
Freelance
CDI

Offre d'emploi
Architecte Data IA

UTALENT
Publiée le
Architecture
IA

12 mois
La Défense, Île-de-France
Concevoir des architectures data et IA en réponse à des besoins d’analyse et de traitement exprimés par les métiers. Définir les architectures cibles, standards, frameworks et principes de modélisation des données. Structurer la gestion des métadonnées, des référentiels et des flux de données. Contribuer à la définition d’architectures de référence pour les plateformes data et analytiques. Identifier les sources de données de référence et encadrer les transformations et dataflows. Analyser l’existant, documenter les solutions et proposer des axes d’amélioration continue (performance, capacité, coûts, sécurité). Intégrer les enjeux de résilience, d’exploitabilité et de sécurité dès la conception des solutions. Accompagner les équipes de développement dans l’application des bonnes pratiques de conception et de codage. Travailler en coordination avec les équipes métiers, sécurité, opérations et support. Assurer une veille technologique et proposer des évolutions visant à améliorer l’efficacité du SI.
Freelance

Mission freelance
Business Analyst Sénior - Risk Data

VISIAN
Publiée le
Business Analyst

3 ans
400-500 €
Marseille, Provence-Alpes-Côte d'Azur
Groupe international spécialisé dans le financement B2B (équipements et immobilier) recherche un(e) Business Analyst pour rejoindre une organisation IT en mode Agile (Squad/Tribe) , dans un contexte octroi / étude de risque . Dans le cadre d’une roadmap 2026 , la mission porte sur des évolutions liées à la collecte et la structuration des données de connaissance client (KYC) et de données fournisseurs , autour de deux applications internes de type référentiel et plateforme d’acquisition . Mission Intégration d’une squad en charge des sujets Risk Data / référentiels Participation aux cérémonies Agile (Sprint Planning, Daily, Review, Rétro…) Identification et coordination des parties prenantes métier / IT / tests Analyse et formalisation des besoins avec le Product Owner Rédaction de l’expression de besoin et validation métier Rédaction des user stories et des critères d’acceptation Réalisation de mapping de données et contribution à la mise en place d’ APIs Participation aux tests et accompagnement du métier sur la recette / UAT Vérification de la conformité de la solution livrée vs besoin métier Contribution à la documentation, formation utilisateurs et conduite du changement Profil recherché Expérience en tant que Business Analyst / Analyste fonctionnel / AMOA Bonne maîtrise des environnements Agile / Scrum À l’aise sur les sujets data / mapping / référentiels / APIs Expérience en recette / tests utilisateurs (UAT) Bon relationnel et capacité à faire le lien entre métier et équipes techniques
Freelance
CDI

Offre d'emploi
Ingénieur Infrastructure & Big Data

Ela Technology
Publiée le
Cassandra
Hadoop
Linux

1 an
40k-55k €
400-550 €
Nancy, Grand Est
I. Contexte : Notre client connaît une forte croissance (+1,5 million de clients en un an) et renforce l’équipe Architecture Système/Réseaux (10 personnes) pour assurer la gestion et l’évolution de son infrastructure critique. L’environnement technique est 100% Linux, avec une architecture complexe : · Réseau : 2400 VM, 5-6 Data Centers, 100 applications Open Source · Datalakes : 2 PetaOctets de données · Organisation : Pas de PO, Scrum Master ni DevOps ; 4 équipes de développement (~30 projets) · Répartition des activités : o 1/3 MCO o 1/3 Obsolescence o 1/3 Build / Industrialisation II. Missions : Objectifs de la mission · Assurer la maintenance en conditions opérationnelles (Run 40%) et contribuer à la conception et industrialisation des infrastructures. · Participer à la mise en place d’un socle commun de provisioning, avec un focus sur Data et Sécurité. · Interagir avec les équipes BI pour les besoins de reporting réglementaire et autres. Enjeux techniques · Axes de conception : o Scalabilité o Résilience (site internet = point de contact unique) o Sécurité (chiffrement avancé, PKI, certificats) · Technologies & outils : o Système : Linux o Réseaux : TCP/IP niveau 2, HTTP, SNTP, DNS, zones, reverse proxy o Sécurité : PKI, certificats, chiffrement asymétrique o Containers & IaC : Kubernetes, Ansible (usage limité), Puppet, Terraform o Big Data : Hadoop, Spark, Cassandra, Zeppeli o Autres outils : Kafka, Cognos, Docker, Elasticsearch o Machine Learning : détection de fraude en temps réel · Cloud : utilisation très marginale (Infra as Code majoritairement on-premise)
Freelance
CDI

Offre d'emploi
Ingénieur Data Event Management

VISIAN
Publiée le
Apache Kafka
Java
Python

1 an
40k-45k €
230-540 €
Paris, France
Intégration au sein de l'équipe Data Event Management Intégration au sein de l'équipe Data Event Management qui gère les trois offres de services suivantes : Offre Infra. Kafka sur ITCloud OnPremise Offre Infra. Kafka sur IBMCloud/dMZR Activités principales Construction/Déploiement/Support/MCO des offres autour de la technologie de messaging kafka Méthodologie de Travail ITIL Agile/Scrum à l'échelle Product Based Projets principaux en cours Transition vers un Nouvel Orchestrateur sur l'Offre Infra Kafka IBMCloud/dMZR basé sur Python et Airflow, Terraform Extension de l'offre Kafka sur IBMCloud/dMZR avec l'intégration du produit Lenses Migration du monitoring de l'infrastructure OnPremise de Splunk vers une solution Dynatrace combinée avec ELK Technologies Utilisées Outils administratifs: ServiceNow, Jira, Confluence Infrastructure as Code: Ansible, Terraform Langages: Bash, Java (Spring/JHipster), Python Repository: Artifactory Database: SQL Server, PostgreSQL Conteneurisation: Docker/Kubernetes Provider Cloud: ITCloud, IBMCloud Orchestration: Airflow, Autosys, BPM Versionning: Git Messaging: Kafka CI/CD: GitLab CI Operating system: Redhat Monitoring: ELK, Dynatrace, LogDNA, Sysdig Sécurité: HashiCorp Vault, Cyberarc
Freelance

Mission freelance
Responsable d’Application (RUN & DATA GCP)

Codezys
Publiée le
Git
Reporting
Shell

6 mois
Lille, Hauts-de-France
Localisation : Lille Contexte : International 1) Description de la mission Située dans un contexte international, cette mission concerne la gestion de plusieurs produits digitaux récemment déployés, avec des enjeux clés tels que : la fiabilité la continuité de service la qualité des données la performance opérationnelle Le poste de Responsable d’Application combine une responsabilité majeure dans le domaine du RUN applicatif (support, gestion des incidents, maintien en conditions opérationnelles, performance) et une contribution technique liée aux composants DATA sur GCP. Il s’inscrit dans une démarche d’amélioration continue et de développement progressif des compétences sur la stack technologique. Le profil recherché doit être à la fois technico-fonctionnel, avec une orientation vers le pilotage du RUN et du support applicatif, plutôt que vers un rôle exclusivement de développement. 2) Objectifs & responsabilités principales Pilotage du RUN applicatif Assurer la gestion des incidents et des problèmes Garantir le maintien en conditions opérationnelles (MCO) Suivre la performance à l’aide de KPI et produire un reporting régulier Maintenir la stabilité et la continuité du service pour le périmètre concerné Pilotage opérationnel & coordination transverse Animer les instances de projet et de run : COMOP / COPIL Coordonner les différentes parties prenantes : équipes IT, métiers, TMA, éditeurs, pays Gérer le pilotage opérationnel global et assurer le suivi des actions Mise en production & évolutions Accompagner les mises en production (MEV) Suivre l’avancement des projets et évolutions du périmètre Garantir la maîtrise à la fois fonctionnelle et technique des outils Assurer la maintenance évolutive Contribution DATA (GCP) Analyser et comprendre les flux de données et leurs usages Intervenir techniquement sur des aspects tels que SQL ou troubleshooting data Développer ou faire évoluer certains composants sous GCP si nécessaire Participer activement à l’amélioration continue et à la montée en compétences sur la stack DATA 3) Livrables attendus Suivi du RUN avec : – Tableaux de bord KPI – Reporting régulier (incidents, performance, disponibilité) Comptes rendus et supports d’instances : – COMOP / COPIL – Plan d’actions pour le RUN et l’amélioration continue Suivi des mises en production (MEV) : – Préparation, coordination, validation et accompagnement Documentation opérationnelle et technique du périmètre Analyses des flux DATA et résolution d’anomalies
CDI
Freelance

Offre d'emploi
Data Engineer Opensearch/Kafka/Elasticsearch

OBJECTWARE
Publiée le
Apache Kafka
Elasticsearch

3 ans
38k-85k €
400-660 €
Île-de-France, France
Objectif de la mission Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur ELASTIC/OPENSEARCH et KAFKA Les principales technologies utilisees • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) • Open Search et Kafka L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs Prestations demandées La mission consiste à: Support, automatisation et maintien en conditions opérationnelles des plateformes ELK/Opensearch/Kafka ( ELK etant la priorite) Participation aux developpmenent de l equipe data Analytics Support plateforme WWW Environnement anglophone
Freelance

Mission freelance
Data Ingénieur Spark - Rennes

Net technologie
Publiée le
Apache Spark

3 mois
Rennes, Bretagne
Dans le cadre de la création d’une nouvelle plateforme Data , le Data Engineer Senior intervient sur l’ensemble du cycle de vie de la donnée . Il conçoit, développe et maintient des pipelines de données batch et streaming en Spark et Python , contribue à la mise en place d’une architecture Lakehouse moderne , et garantit la qualité, la fiabilité et la sécurité des données . Le rôle inclut l’ industrialisation des traitements (CI/CD, DataOps), l’observabilité, la documentation et une forte collaboration avec les équipes techniques et métiers.
Freelance

Mission freelance
Data Engineer / Analyste Azure (MSBI) :

Cherry Pick
Publiée le
Azure
MSBI
SQL

12 mois
450-500 €
Paris, France
Dans le cadre de projets Data en environnement Full Microsoft, Altarea souhaite renforcer ses équipes sur des sujets d’ingestion, traitement et restitution de données. Les projets consistent à : ingérer de nouvelles données depuis des bases Oracle ou PostgreSQL, Les stocker et traiter sur Azure, Produire des rapports décisionnels via Power BI. Mission Ingestion de données depuis Oracle / PostgreSQL vers Azure Utilisation de SSIS (infra locale) ou Azure Data Factory selon les contraintes techniques et de coûts Traitement et transformation des données Modélisation et restitution via Power BI Travail majoritairement en SQL (pas de besoin Python) Capacité à challenger les choix techniques et à proposer des optimisations Veille technologique et posture de consultant Environnement technique Stack Full Microsoft (MSBI) SQL Server / SSIS Azure (Data Factory, stockage) Power BI Sources : Oracle, PostgreSQL Profil recherché Data Engineer / Data Analyst Azure 5 à 10 ans d’expérience Très bon niveau SQL À l’aise en environnement MSBI Capacité de recul, force de proposition Posture conseil Une expérience dans la promotion immobilière est un gros plus
Freelance
CDI

Offre d'emploi
Data Engineer Elastic/OpenSearch et Kafka

VISIAN
Publiée le
Ansible
Elasticsearch

1 an
40k-45k €
400-620 €
Île-de-France, France
Descriptif du poste Dans le cadre de l'équipe Data Analytic, nous créons et maintenons des architectures Big Data pour les besoins internes de l'entreprise. Pour renforcer notre équipe support, nous proposons une mission de Data Engineering sur Elastic/OpenSearch et Kafka. Technologies principales Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) OpenSearch et Kafka Technologies couramment utilisées L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées :
Freelance

Mission freelance
Data Engineer Recyclage & Valorisation (Dep92)

EterniTech
Publiée le
Google Cloud Platform (GCP)
Java
Python

3 mois
300-400 €
Hauts-de-Seine, France
Mission : transformer les données en un véritable actif pour les métiers du Recyclage et de la Valorisation. Missions principales Maintenir et faire évoluer la plateforme Data : intégration de flux, suivi des batchs, performance et sécurité. Gestion des droits d’accès et interactions avec les consommateurs de données. Proposer des améliorations techniques (indexation, datamarts, pré-calculs KPI). Participer à l’amélioration continue de la qualité des données et assurer le support N3. Référent technique du socle Data et coordination avec la data gouvernance. Environnement technique Bases de données : SQL Server, BigQuery, PostgreSQL Langages : SQL, Python, Java, C++ DevOps : CI/CD, Azure DevOps, Git Cloud : Azure, GCP Outils BI et visualisation : Power BI, reporting Gouvernance et data management
CDI
Freelance

Offre d'emploi
Data Scientist Senior (Machine Learning, MLOps & IA Générative) - Lille (H/F)

STORM GROUP
Publiée le
MLOps
Pandas
Python

3 ans
50k-57k €
500-600 €
Lille, Hauts-de-France
Contexte du poste : Un acteur bancaire souhaite renforcer sa stratégie d’Intelligence Artificielle en développant des solutions avancées de Machine Learning, Deep Learning, NLP et IA Générative. L’objectif est de valoriser les données, optimiser les processus internes et améliorer l’expérience client grâce à des modèles robustes, explicables et industrialisés. Missions principales : 1. Modélisation Risque & Scoring Concevoir, optimiser et challenger les modèles de scoring d’octroi et de comportement. Explorer des approches innovantes pour améliorer la performance et la stabilité des modèles. Déployer les modèles en production et assurer leur monitoring (dérive, performance, stabilité). Travailler en étroite collaboration avec les équipes Risque, Validation et les experts métier. 2. Développement de Solutions IA Intégrer les modèles ML/AI en temps réel dans les parcours digitaux (scoring instantané, personnalisation des offres…). Participer à la conception de l’architecture technique (Cloud, MLOps, API, pipelines). Collaborer avec les équipes IT et Produit pour industrialiser les solutions et garantir leur scalabilité. 3. IA Générative & Agents Prototyper et déployer des solutions d’IA Générative (LLM, RAG, agents intelligents) pour transformer les processus internes (Marketing, Audit, Risque, Support…). Mettre en place des architectures agentiques pour automatiser des tâches complexes : analyse documentaire, octroi de crédit, interaction client. Évaluer et monitorer les performances des agents (cohérence, diversité, RAGAS, LLM-as-a-Judge…).
Freelance
CDI
CDD

Offre d'emploi
DATA ANALYST RESEAUX SOCIAUX MI-TEMPS

KEONI CONSULTING
Publiée le
Data analysis
IA
Web

18 mois
20k-60k €
100-450 €
Paris, France
CONTEXTE Collaborer avec l’équipe de la direction de la communication digitale. MISSIONS : - Assurer une veille continue et réactive des sujets de discussions sur les réseaux sociaux et le web, au travers d’outils de social listening - Rédiger en temps limité des notes d'analyse des retombées sur ces sujets (des notes quotidiennes, mensuelles, thématiques, ad hoc…) - Assurer une veille en temps réel des sujets de crise et, régulièrement, d’émissions en direct durant leur diffusion en soirée -Assurer une veille à hauteur de 1 à 2 week-ends par mois (9h30 – 18h30) – A discuter en fonction de vos disponibilités - Effectuer des études réputationnelles dans le cadre d’opérations de marketing d’influence - Construire des recommandations stratégiques et éditoriales à l'attention de l'équipe de la Direction de la communication digitale et des autres Directions du Groupe PROFIL & Expertises demandées: - Une expérience d’au moins trois ans dans le secteur des médias et/ou dans le secteur public sont un prérequis. - Au moins 5 ans d’expériences spécifiques, en social listening. Une maîtrise complète de Talkwalker (requêtage et paramétrage complexes) et X Pro est attendue ; la maîtrise d’autres outils de social listening ou de monitoring sera appréciée. Une expérience avancée en matière de suivi en direct des retombées est attendue, ainsi que des connaissances relatives à la création de cartographies de comptes RS sous Gephi. -Une expertise en communication de crise est nécessaire. Le consultant devra pouvoir évaluer l’ampleur, la gravité d’une crise réputationnelle et formuler des recommandations. - Une expérience avancée en matière d’études réputationnelles et de marketing d’influence est attendue pour la prestation. L’utilisation extensive d’outils de référencement de créateurs de contenus et le recours régulier à des méthodologies complexes d’analyse réputationnelle sont attendus. - Une excellente aisance rédactionnelle, à tout niveau de synthèse et d’analyse, est nécessaire. -La capacité de création de prompts avec une IA générative et de cas d’usages professionnels, à l’appui des différentes expertises attendues, sera valorisée. - Des connaissances étendues sur les sujets politiques, géopolitiques, sociétaux, médiatiques et numériques devront pouvoir être mobilisées. Spécifiquement, des connaissances sur le fonctionnement des principaux réseaux sociaux sont attendues.
1666 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous