Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 900 résultats.
Offre premium
Freelance

Mission freelance
Data & AI Product Manager – Lille

NaxoTech
Publiée le
AI
Data management
Machine Learning

1 an
420-750 €
Lille, Hauts-de-France

Nous recherchons un Data & AI Product Manager expérimenté, capable de piloter des projets d’Intelligence Artificielle ambitieux et stratégiques. Votre rôle sera de transformer les besoins métiers en solutions concrètes basées sur l’IA : modèles prédictifs à grande échelle, systèmes de recommandation, outils d’aide à la décision et produits data innovants. Vous animerez une équipe de Data Scientists, Machine Learning Engineers et BI Engineers, et serez le garant de la vision produit comme de la qualité des livrables. Votre mission consistera à comprendre en profondeur les enjeux métiers, co-concevoir des solutions IA adaptées, prioriser la roadmap, et accompagner les phases de conception, déploiement et évolution. Vous jouerez un rôle clé dans la création de valeur par l’IA, au service d’une entreprise engagée dans la Tech4Good. Début des entretiens le 25/08.

Freelance

Mission freelance
Ops Data Lake - Vitrolles cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o

WorldWide People
Publiée le
Data Lake

6 mois
400-500 €
Vitrolles, Provence-Alpes-Côte d'Azur

Ops Data Lake Ops Data Lake - Vitrolles cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Freelance

Mission freelance
Chef de projet Data/Lead data scientist

DEVATSCALE
Publiée le
Data governance
Data management
Data quality

3 mois
550-600 €
Paris, France

Hello, Voici le descriptif du poste de chef de projet Data/lead data scientist si tu es en recherche actuellement: Acculturation & cadrage : sensibiliser les métiers à la valeur de la data, animer des ateliers, faire des présentations PPT trés abouties Cartographie & gouvernance de la donnée : mettre en place des instances, processus et outils de gestion des données. POC & prototypes IA : piloter l’incubation de preuves de concept, encadrer les phases de test et d’expérimentation. Gestion de projet & delivery : suivre la roadmap, coordonner les équipes techniques et métiers, assurer le reporting et le respect des délais/livrables.

Freelance

Mission freelance
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o

WorldWide People
Publiée le
Data Lake

6 mois
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Freelance

Mission freelance
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o

WorldWide People
Publiée le
Data Lake

6 mois
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Ops Data Lake Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Offre premium
Freelance
CDI

Offre d'emploi
Profil Data - Python

AVALIANCE
Publiée le
Python
SQL

3 ans
40k-57k €
380-480 €
Rueil-Malmaison, Île-de-France

• Objectif de la mission • Au sein de la DSI Europe, division BI & Data, seconder l’architecte leader dans l’enrichissement, le maintien et l’évolution de la Digital Data Platform • Contenu • Participer à la mise en oeuvre de jobs d’intégration de données: création, revue de pair, déploiement • Accompagner l’équipe data engineering au respect des patterns de développement du marché et des pratiques de création de jobs de la Digital Data Platform • Optimiser les performances des jobs (performance SQL, performance Python, Job Scheduling) • Optimiser les performances opérationnelles et financières de la plateforme existante • Optimiser la performance opérationnelle des équipes (automatisation, extension et optimisation du moteur de Jobs) • Participer à la valorisation de la donnée collectée auprès des métiers (publicité, data science, filiation de donnée, self-service de la donnée…)

Freelance
CDI

Offre d'emploi
Customer Data Product Owner Expérience Assurances et MDM impératifs

ARDEMIS PARTNERS
Publiée le
Data management

6 mois
40k-52k €
400-510 €
Paris, France

1/ Contexte du service : Ce service sera opérationnel au sein des Opérations du Groupe au sein de la Division Données, IA et Innovation Groupe (GDAI), au sein de l'équipe Produits Données et IA du Département Données du Groupe. La Direction Données Groupe apporte leadership, expertise et animation de communauté dans quatre domaines : • Stratégie Données et IA, en tant que pôle global, via une gouvernance impliquant les directeurs des données et de l'analyse, les chefs d'entreprise, les directeurs des opérations et des systèmes d'information, et les départements Conformité/Risques/Sécurité ; • Culture Données et IA, via une collaboration avec les fonctions RH et Communication ainsi qu'avec les chefs d'entreprise, en s'appuyant sur la communauté des responsables locaux de la culture Données ; • Gestion de l'information, couvrant la gouvernance des données et de l'IA, la qualité des données, la documentation des données, la modélisation des données et les risques liés aux données et à l'IA, en s'appuyant sur les responsables locaux des bureaux de gestion des données ; Évolution vers l'intégration de l'IA et de l'IA générative, ainsi que vers une utilisation croissante des données externes et non structurées ; • Produits Données et IA, couvrant la conception, l'orchestration et la mise en œuvre de produits Données et IA au sein des entités et du Groupe, ouvrant ainsi l'accès aux données et à l'IA dans tous les domaines (conception cloisonnée). Au sein de la Direction Données Groupe, l'équipe Produits Données et IA pilote la transformation Data Mesh/Data Product afin de simplifier le déploiement des cas d'usage analytiques et d'accélérer les innovations en matière d'IA, en utilisant un paradigme Data Mesh pour faciliter les interactions entre le Groupe et les entités sans centraliser les plateformes de données locales. Les principales missions de l'équipe sont les suivantes : • Soutenir la création de valeur métier, en concrétisant les produits de données mondiaux et locaux, conformément aux priorités mondiales o Mettre en place une gouvernance mondiale des produits de données et gérer le portefeuille et le cycle de vie de ces produits o Piloter l'exécution des principaux programmes de données transverses (Customer 360) o Soutenir la conception et la livraison de produits de données (mondiaux) pour soutenir les initiatives métiers sur les priorités mondiales o Surveiller et garantir la disponibilité et l'accessibilité des données pour l'IA aux niveaux local et du Groupe • Créer et maintenir une plateforme de données mondiale en libre-service, pérenne et évolutive, permettant l'autonomie des entités et des métiers, en adéquation avec les normes et de marché en matière d'innovation en matière de données et d'IA • Garantir la préparation de l'architecture de données à la transformation métier et IA, grâce à la conception de cadres et de normes communs avec les entités, et accompagner leur mise en œuvre ---------- 2/Description du service : Le service doit posséder une expertise en matière de propriété produit et d'analyse métier pour servir les usages des données métiers et soutenir les différentes initiatives métiers , notamment la conformité, la croissance et la diffusion de solutions de données et d'IA partagées au sein du Groupe (principalement). Centre de contact, mais aussi Sinistres et Souscription. Le service consistera à : • Fournir, en collaboration avec les parties prenantes du Groupe et des Entités, une analyse et une formalisation de la compréhension des initiatives métier, avec leurs implications pour les données clients, y compris les données externes liées aux clients (Dun & Bradstreet, Standard & Poors, etc.) et aux initiatives du Centre de contact ; • Contribuer à la définition des besoins en données couvrant toutes les dimensions (définitions métier, qualité des données, produits de données, gouvernance des données, gestion des données non structurées, plateformes de données, architecture, etc.), en s'appuyant sur les exigences du Groupe et sur le travail de certaines Entités ayant développé des solutions locales à grande échelle ; • Contribuer à la définition de l'évaluation de la qualité et de l'état de préparation des données correspondantes afin de mesurer la maturité des Entités ; • Assurer le (co-)développement et l'évolution des définitions clients, des bonnes pratiques (par exemple, processus de déduplication, etc.) et des cadres afin de garantir la cohérence entre les Entités et de soutenir les progrès locaux. Les définitions clients font référence aux rôles B2C et B2B, ainsi qu'aux autres rôles liés aux clients (b).

CDI
Freelance

Offre d'emploi
Senior Data Engineer Talend

SAS GEMINI
Publiée le
Big Data
Talend

1 an
Vélizy-Villacoublay, Île-de-France

Contexte de la mission Dans le cadre d’un programme de transformation digitale et data, le Senior Data Engineer contribuera à la conception, la mise en œuvre et l’évolution de produits data au sein d’une organisation internationale. La mission consiste à renforcer les capacités de l’équipe en charge de la Data Platform et des initiatives stratégiques autour de la valorisation des données. Responsabilités principales Conception et développement : construire et optimiser des pipelines ETL (Talend, SSIS, ADF, BigQuery, GCS, Dataproc) pour l’extraction, la transformation et le chargement de données. Data Lake & intégration : mettre en place et alimenter des solutions de Data Lake en intégrant des données depuis diverses sources (APIs, transferts de fichiers, mécanismes de chargement complets ou incrémentaux). Data Warehousing : concevoir et maintenir des entrepôts de données, data marts et cubes répondant aux besoins métiers. Analytique & reporting : développer des outils analytiques pour générer des insights sur la performance et l’efficacité opérationnelle. Collaboration agile : travailler avec les Product Owners, administrateurs et équipes plateforme dans un cadre Agile. CI/CD & automatisation : mettre en place et exploiter des pipelines de déploiement automatisés (Azure DevOps, GitLab). Support et qualité : diagnostiquer les incidents de production, appliquer les bonnes pratiques de développement et assurer la qualité des livrables. Livrables attendus Composants data développés et déployés (code source). Documentation technique et fonctionnelle. Modèles de données documentés. Rapports d’audit et de tests. Sessions de transfert de compétences et support.

Freelance
CDI

Offre d'emploi
Développeur backend Java Core Confirmé ou Sénior - Multithreading calculs distribués- Appache Ignite

Digistrat consulting
Publiée le
Big Data
DevOps
Java

3 ans
50k-70k €
500-600 €
Paris, France

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins

Freelance

Mission freelance
Data Scientist Machine Learning / Deep Learning et IA Générative -Aix eb Provence

WorldWide People
Publiée le
Data science
Machine Learning

6 mois
350-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Data Scientist Expérience souhaitée : 3 ans minimum 2 à 3 jours sur site Compétences requises Expérience confirmée en Machine Learning / Deep Learning et IA Générative. Bonne maîtrise de Python, SQL, Pandas, Scikit-learn, Numpy, Jupyter Notebook, Streamlit. Maîtrise des frameworks : TensorFlow, PyTorch. Connaissance du cycle de vie complet des modèles IA (conception, mise en prod, suivi). Curiosité, autonomie, capacité à faire de la veille technologique. Esprit d'équipe et envie de partager vos connaissances. Missions Analyser les problématiques métiers et démontrer la valeur ajoutée d’approches ML/DL ou IA Générative. Concevoir et mettre en production des modèles d’apprentissage automatique. Traiter de grandes quantités de données pour créer des jeux d'entraînement. Appliquer les bonnes pratiques de MLOps et assurer l’explicabilité des modèles. Présenter les résultats de façon claire aux parties prenantes et suivre la performance des modèles dans le temps. Réaliser du prompt engineering pour les modèles d’IA Générative. Effectuer des benchmarks pour évaluer les modèles IA Gen. Optimiser les modèles (paramétrage, ajustements).

Freelance
CDI

Offre d'emploi
Datascientist Graphs

VISIAN
Publiée le
Data science
Graphisme

1 an
40k-45k €
400-600 €
Montreuil, Île-de-France

Le bénéficiaire recherche une ressource expérimentée et autonome pour conception, développement et suivi des projets de Data Science avancée dans le cadre d’une solution Digital Twin. La mission s’inscrit dans un environnement technique exigeant, intégrant des technologies de modélisation graphique telles que TigerGraph et des approches GNN (Graph Neural Networks) pour enrichissement des capacités prédictives et analytiques des jumeaux numériques. Les missions sont: Conception, mise en œuvre, test et déploiement de modèles de Machine Learning / Deep Learning de bout en bout, adaptés aux problématiques du Digital Twin. Exploration de nouvelles architectures ML/DL, mise en œuvre de techniques d’apprentissage par transfert et optimisation des performances des modèles. Contribution aux pratiques MLOps : versioning des modèles, suivi des expériences, automatisation des pipelines de déploiement en collaboration avec les ingénieurs. Création de pipelines de données et d’ingénierie de fonctionnalités, en lien avec les exigences du jumeau numérique, en partenariat avec les ingénieurs ML. Conception et implémentation de solutions GenAI alignées avec les besoins IT, notamment autour des LLM, RAG et agents. Intégration de TigerGraph et de GNN dans les workflows analytiques pour modéliser des relations complexes et améliorer les capacités de prédiction.

Freelance
CDI

Offre d'emploi
Business Analyst Data

VISIAN
Publiée le
Agile Scrum
Big Data
ETL (Extract-transform-load)

1 an
Paris, France

Rattaché(e) à la Direction Digital, Data & IS, la Data Factory œuvre pour rendre les données accessibles, les valoriser à travers des produits data métiers à base d’IA et d’Advanced Analytics, et transformer le client en un groupe orientée data (« Data-driven ») où tous les collaborateurs connaissent les enjeux de la data. La création des produits Data s’appuie sur une « plateforme Data» centrale, cloud-native, sécurisée et performante avec les technologies les plus avancées. Le client a établi un partenariat stratégique de cinq années avec Google Cloud, lui donnant accès à des technologies innovantes et des liens privilégiés avec ses experts, et permettant de disposer d’une puissance de calcul augmentée, d’accélérer l’analyse et de développer l’innovation sur de nombreux défis business et technologiques.

Freelance

Mission freelance
DATA INGENIEUR H/F

HAYS France
Publiée le
BigQuery
Data management

6 mois
75008, Paris, Île-de-France

Description du Poste : Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe Enterprise Management et Finance, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur de notre plateforme de données, responsable de l'ingestion et de la normalisation des données. Son rôle sera également de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Votre consiste à Participer à l’harmonisation des données dans notre Data Platform (DP) pour les reportings du TOP management Assurer la qualité et la conformité des données Travailler dans un contexte Agile SAFE pour assurer des livraisons efficaces et continues

Freelance

Mission freelance
Data Scientist - Paris intra muros / Finance

Mobiskill (WEFY Group)
Publiée le
Data analysis
Data science
Python

3 mois
400-530 €
Paris, France

Mission Freelance – Data Scientist 📍 Localisation : Paris 8e 🗓 Démarrage : ASAP ⏳ Durée : 3 mois renouvelables 💼 Secteur : Finance Contexte Dans le cadre d’un programme de transformation Data au sein d’un acteur majeur de la finance, nous recherchons un Data Scientist pragmatique et opérationnel, capable de prendre en charge l’intégration et la mise à disposition de nouvelles sources de données pour alimenter différentes applications stratégiques. Vos responsabilités Assurer le sourcing et le branchement de données depuis le système SNF vers les nouvelles applications. Concevoir, développer et maintenir les flux de données (ETL, API, pipelines). Garantir la qualité, la cohérence et la disponibilité des données pour les équipes métiers et techniques. Collaborer avec les équipes internes pour définir les besoins et déployer des solutions robustes. Participer à la documentation et au transfert de connaissances.

Freelance

Mission freelance
Tech Lead Data

DEVATSCALE
Publiée le
Big Data
Data management
Python

3 mois
500-600 €
Poitiers, Nouvelle-Aquitaine

Hello, Voici le descriptif du poste de Tech Lead Data si tu es en recherche actuellement: Tu prends les rênes d'une partie de l’architecture Data pour garantir robustesse, scalabilité et sécurité des pipelines. Tu manages une petite équite de data engineer motivée et tu sais les challenger afin de performer Tu travailles sur la partie IA et machine learning main dans la main avec la team data scientist et data analyst Tu attaches de l'importance à la sécurité des données et au stockage Tu es à l'aise avec python, snowflake, SQL et talend.

CDI
Freelance

Offre d'emploi
Data Engineer Big Data

Signe +
Publiée le

24 mois
40k-45k €
286-450 €
Paris, France

Compétences techniques : Framework Big Data & Langage : Spark - spark streaming et batch (requis), SQL (requis) Kafka (apprécié) java (apprécié) scala (apprécié) shell (apprécié) Ecosystème Big Data : Stack Hadoop Cloudera (fortement apprécié) Base de données : (type Hdfs, Hive, Hbase, Phoenix, MongoDB) DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana Scrum (cadre agile entreprise) Apprécié : Outil de Data Visualisation : Microstrategy étant un plus (ou connaissance Power Bi, Tableau) Compétences humaines : Requis : Autonomie, Adaptabilité, Bonne communication / Pédagogue / Vulgarisation Data pour des équipes métiers Force de proposition, Sait challenger les besoins et comprend le sens métier des travaux menés 5 à 10 ans d'exp. Paris 12ème 3 jours sur site

900 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous