Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 7 003 résultats.
Freelance
CDI

Offre d'emploi
Data Manager confirmé – Gouvernance Data / Data Quality / Catalogage

Inventiv IT
Publiée le
Big Data
Data governance
Développement

6 mois
48k-58k €
460-550 €
Paris, France
Nous voulons un profil polyvalent technico-fonctionnel orienté Data, Data Quality, Développement & DevOps (avec une vision globale). 20 % : Technique applicative (DevOps & Développement) 20 % : Data Gouvernance & Catalogage 20 % : Data transverse 40 % : Data Quality Confirmé : entre 3/7 ans d’expérience Contexte Au sein de la Data Factory, la mission s’inscrit dans le cadre du renforcement de l’outillage et des pratiques de Data Management sur la plateforme Data et sur les sujets de Data Quality Groupe. L’objectif est d’accompagner l’industrialisation des pratiques de gouvernance de la donnée, d’améliorer la qualité des données, de fiabiliser les mises en production et de renforcer la traçabilité et la conformité des activités data. Objectifs de la mission Le consultant interviendra pour : renforcer l’industrialisation des pratiques de Data Management sur la plateforme Data améliorer l’outillage de catalogage, de lineage et d’interconnexion entre outils, contribuer au chantier Data Quality fonctionnelle au niveau Groupe, garantir la conformité aux exigences de gouvernance data et de traçabilité, accompagner les métiers et équipes projets dans l’usage des outils et livrables de gouvernance. Positionnement Rattachement opérationnel : sous la supervision du Product Owner de la Plateforme Data Groupe Reporting hiérarchique : manager des plateformes Data Interactions fréquentes avec : référents Data métiers, équipes Gouvernance Data Groupe, squads projets, intervenants IT / DSI. Participation aux principales cérémonies Agile de l’équipe. Missions principales 1. Administration et amélioration des outils de Data Management Garantir la cohérence globale des paramétrages des fonctions Data Management dans le socle Data & IA. Administrer ou contribuer à l’administration des outils de gestion de métadonnées et de catalogage. Assurer la continuité et l’amélioration de la qualité de l’écosystème d’outils. Gérer les interconnexions pour garantir un linéage fiable entre outils, notamment Databricks et Collibra. Produire la documentation d’exploitation et les modes opératoires. Identifier des améliorations pragmatiques pour réduire les tâches manuelles et augmenter le taux de tables documentées/taggées. 2. Contribution à la gouvernance Data Groupe Apporter son expertise sur l’offre de services autour du Data Catalogue Groupe / Collibra. Contribuer à la structuration du programme Data Quality fonctionnelle : méthodologie, planning, audits, reporting, coordination avec les BU. 3. Accompagnement méthodologique des produits Data métier Accompagner les Data Owners métiers dans les ateliers de qualification des sources. Garantir la cohérence des CCD (Cadres de Confiance Data). Assister les équipes sur la production des Contrats d’Interface et Contrats de Consommation. Faire monter les équipes en autonomie sur les outils fournis, notamment via coaching et accompagnement. 4. Gouvernance, conformité et pilotage Documenter le patrimoine de données avec une vision transverse. Vérifier le bon renseignement des métadonnées techniques de la recette à la production. Contrôler et fiabiliser le linéage. Maintenir la qualité du catalogage : définitions, descriptions, tags, propriétaires, périmètres. Classifier les données selon leur sensibilité : DCP, données business sensibles, santé, etc. Fournir des tableaux de bord sur la qualité des données et la gouvernance dans la plateforme Data Suivre l’avancement sur plusieurs projets en parallèle. Tenir à jour la matrice Applications x Domaine. Rédiger des comptes rendus orientés actions / décisions. Alerter rapidement et formellement en cas de retard ou dépendance bloquante.
CDI

Offre d'emploi
Data Engineer Semarchy (H/F)

CELAD
Publiée le

36k-42k €
Nantes, Pays de la Loire
CDI - 2 jours de télétravail / semaine - Nantes - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) ingénieur décisionnel ETL pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Rejoignez une équipe Data au cœur de la connaissance client et des activités commerciales d’un grand groupe bancaire. Vos principales missions : Vous jouerez un rôle clé dans la construction et la performance des pipelines de données : Conception & Développement - Concevoir, développer et maintenir des flux ETL robustes et industrialisés sous Stambia / Semarchy - Modéliser et structurer les données selon les besoins métiers et techniques - Développer des jobs d’intégration, de transformation et de restitution Qualité & Performance - Optimiser les traitements pour garantir la performance , la scalabilité et la fiabilité des pipelines - Mettre en place des contrôles qualité, règles de validation et mécanismes d’alerting - Participer à l’amélioration continue des bonnes pratiques Data Analyse & Collaboration - Analyser les besoins fonctionnels et proposer des solutions techniques adaptées - Collaborer avec les équipes BI, Data, IT et les référents métiers - Documenter les flux et leur cycle de vie pour garantir la pérennité des traitements ⚙ Stack technique du projet : - ETL : Stambia / Semarchy ( xDM / xDI) - SQL
Freelance

Mission freelance
Data Engineer Semarchy (H/F)

CELAD
Publiée le

1 an
370-400 €
Nantes, Pays de la Loire
CDI / Portage / Freelance - 2 jours de télétravail / semaine - Nantes - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) ingénieur décisionnel ETL pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Rejoignez une équipe Data au cœur de la connaissance client et des activités commerciales d’un grand groupe bancaire. Vos principales missions : Vous jouerez un rôle clé dans la construction et la performance des pipelines de données : Conception & Développement - Concevoir, développer et maintenir des flux ETL robustes et industrialisés sous Stambia / Semarchy - Modéliser et structurer les données selon les besoins métiers et techniques - Développer des jobs d’intégration, de transformation et de restitution Qualité & Performance - Optimiser les traitements pour garantir la performance , la scalabilité et la fiabilité des pipelines - Mettre en place des contrôles qualité, règles de validation et mécanismes d’alerting - Participer à l’amélioration continue des bonnes pratiques Data Analyse & Collaboration - Analyser les besoins fonctionnels et proposer des solutions techniques adaptées - Collaborer avec les équipes BI, Data, IT et les référents métiers - Documenter les flux et leur cycle de vie pour garantir la pérennité des traitements ⚙ Stack technique du projet : - ETL : Stambia / Semarchy ( xDM / xDI) - SQL
CDI

Offre d'emploi
Data Scientist spécialisé dans les enquêtes/sondages - H/F

█ █ █ █ █ █ █
Publiée le

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDD

Offre d'emploi
Data Engineer Azure Databricks H/F

SMARTPOINT
Publiée le
Apache Spark
Azure
CI/CD

8 mois
50k-60k €
460-500 €
Île-de-France, France
Analyse des traitements existants dans le cadre de projets de migration de données Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake Développement de notebooks Databricks pour des traitements avancés de données Mise en œuvre de solutions de Cloud Data Warehousing , incluant l'optimisation des traitements et le tuning de requêtes SQL Rédaction de la documentation technique (Dossiers d'Analyse Technique, release delivery notes, etc.) Réalisation de revues de code dans une logique de qualité et de bonnes pratiques Conception et exécution de tests unitaires Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés
Freelance
CDI

Offre d'emploi
Administration N2 Middleware – Plateformes J2EE

Management Square
Publiée le
CPU
J2EE / Java EE
Middleware

1 an
45k-52k €
400-450 €
Paris, France
Missions principales : Paramétrage des environnements (préproduction, production, formation) via Ansible, notamment : Configuration JVM (Heap, Metaspace, Garbage Collector) Gestion des modules (bases de données, messagerie, etc.) Configuration des containers (quotas disque, limites système, gestion des flux réseau) Gestion des threads Optimisation des ressources (ratio mémoire / CPU / JVM) Gestion des certificats SSL Réécriture d’URL Gestion des flux réseau sécurisés Résolution des incidents et gestion des problèmes Gestion des changements (interventions planifiées) Analyse des logs et diagnostic Rédaction de documentation technique et accompagnement des équipes
CDI

Offre d'emploi
Data Product Owner F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
JIRA
Scrum
SQL

Puteaux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Ingénieur DataOps / DevOps Data (H/F)

emagine Consulting SARL
Publiée le
AWS Cloud
Azure
CI/CD

36 mois
Niort, Nouvelle-Aquitaine
Dans le cadre du renforcement de sa plateforme data, un grand groupe du secteur assurantiel recherche un Ingénieur DataOps afin d’accompagner l’industrialisation, la fiabilisation et l’exploitation de ses environnements data. Vous interviendrez au sein d’une équipe dédiée à la performance et à la stabilité des services data, avec pour objectif d’assurer leur disponibilité et leur évolutivité. Vous participerez activement à la mise en place et à l’amélioration des pipelines de déploiement (CI/CD), à l’automatisation des processus, ainsi qu’à la gestion des environnements de production et de test. Vous serez également impliqué dans la supervision des systèmes, la gestion des incidents, et la mise en œuvre des exigences non fonctionnelles (sécurité, performance, scalabilité). Enfin, vous contribuerez à l’amélioration continue des pratiques DataOps et à la documentation des solutions mises en place.
Freelance
CDD

Offre d'emploi
Architecte Big Data / Expert Databricks (H/F)

SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

6 mois
75k-90k €
700-750 €
Île-de-France, France
Dans un contexte d’accélération des projets data et de modernisation des plateformes analytiques, notre client recherche un Architecte Big Data / Expert Databricks H/F; Votre rôle sera clé pour concevoir des architectures data modernes, optimiser les performances et les coûts, tout en accompagnant les équipes dans leur montée en compétences. Vos missions Concevoir des architectures Big Data / Modern Data Stack robustes et scalables Réaliser des études techniques et cadrages des besoins data Définir et valider des architectures data sur Databricks et AWS Conduire des audits de performance et de code Produire des dossiers d’architecture (6 à 8 par an) Élaborer des supports de formation (10 à 12 par an) Animer des sessions de formation et de montée en compétences Rédiger des comptes-rendus d’audit (4 à 6 par an) Conseiller sur les bonnes pratiques d’optimisation des coûts et des performances
CDI
Freelance
CDD

Offre d'emploi
Développeur PHP Senior

RIDCHA DATA
Publiée le
Back-end
MySQL
PHP

1 an
40k-45k €
320-410 €
Nantes, Pays de la Loire
Contexte Notre client est une fintech créée en 2014, spécialisée dans les services financiers pour les professionnels, TPE-PME et associations. La société propose un compte professionnel complet avec cartes Mastercard, ainsi qu’une plateforme digitale permettant de gérer la trésorerie, créer des factures, encaisser des clients ou automatiser la comptabilité. Depuis 2023, l’entreprise se concentre sur les grandes associations dans le secteur social et médico-social. Missions principales En tant que Développeur PHP Senior (Back-End) , vous participerez au développement et à la maintenance des fonctionnalités existantes et nouvelles. Vos missions incluront : Rédaction de documents d’analyse technique. Développement de nouvelles fonctionnalités sur le back-end. Maintenance et support sur la base de code existante (souvent legacy). Réalisation de tests pour garantir la conformité aux spécifications fonctionnelles. Rédaction de documentation technique sur le nouveau code et sur le code existant.
CDI

Offre d'emploi
Data Analyst SAS - Anglais courant

Synchrone recrutement
Publiée le
Dataiku
Dremio
SAS

40k-60k €
Paris, France
L'équipe est chargée du pilotage mensuel du risque via la mise à jour du datamart risque et des reportings associés. Pour cela, un RUN mensuel, actuellement composé de programmes SAS, devra perdurer en parallèle des développements induits par les nouveaux usages data (nouvelles expositions de données, nouveaux outils de préparation tels que DREMIO-DATAIKU, et utilisation de Power BI Report Server). Cette mission a pour objectif : · Développer des flux Dataiku et des rapports Power BI afin de contribuer au pilotage mensuel du risque. · Assurer le transfert et la réécriture des programmes SAS existants vers Dataiku, en tenant compte de la complexité de certains codes et des logiques métier sous-jacentes. · Documenter la construction et le fonctionnement des mises en place pour garantir la pérennité et la maintenabilité des solutions. L’équipe tient à cœur de développer des suivis automatisés et optimisés. Une intégration au RUN mensuel ainsi qu’une participation aux demandes d’évolutions sur des suivis déjà existants pourront également être réalisées, dans le but de s’imprégner du fonctionnement global de l’équipe. Anglais courant requis ! Prestations demandées : Comprendre le fonctionnement actuel du datamart risque composé de programmes SAS. Dupliquer les RUN actuels sur les nouveaux outils DREMIO et DATAIKU Mise en place d’un rapport Power BI version report server permettant le pilotage mensuel Participation au double run mensuel
Freelance

Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/l

WorldWide People
Publiée le
Data science

6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
Freelance

Mission freelance
Product Owner technique H/F

HAYS France
Publiée le
Apigee
ELK
Infrastructure

6 mois
540-800 €
Nantes, Pays de la Loire
Nous recherchons un Product Owner technique pour accompagner le pilotage d’une plateforme infrastructure stratégique au sein d’un environnement fortement orienté fiabilité, sécurité et industrialisation. Vous prendrez en charge la vision produit d’un écosystème constitué de services critiques autour de la forge logicielle, des middlewares et des briques techniques qui soutiennent les équipes de développement internes. Votre rôle consistera à prioriser les besoins, structurer le backlog, construire une roadmap cohérente et coordonner les évolutions avec les différentes parties prenantes techniques. Dans ce contexte, vous contribuerez à maintenir les composants à l’état de l’art, à anticiper les sujets d’obsolescence et à accompagner les choix d’architecture sur des sujets tels que les microservices, Docker, Kubernetes, Kafka, ELK, CI/CD et API management. Vous participerez également à la définition du schéma directeur IT sur votre périmètre, avec une vraie logique de valeur produit, d’alignement métier et d’amélioration continue. Une partie importante du poste consistera à faciliter l’adoption des plateformes par les équipes de développement et à faire en sorte que les outils techniques deviennent un levier concret de productivité et de robustesse.
Freelance
CDI

Offre d'emploi
Data Engineer TERADATA ET BIGDATA

WE +
Publiée le
Apache Spark
Hadoop
HDFS (Hadoop Distributed File System)

12 mois
Île-de-France, France
• vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ
CDI

Offre d'emploi
Actuaire - Data Scientist Mrh H/F

█ █ █ █ █ █ █
Publiée le
Git
Numpy
Ocaml

Suresnes, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDD
CDI
Freelance

Offre d'emploi
Expert cybersécurité - Security by Design

KEONI CONSULTING
Publiée le
Big Data
GED (Gestion Électronique des Documents)
MOA

18 mois
20k-60k €
100-550 €
Niort, Nouvelle-Aquitaine
Contexte : Dans le cadre de la Direction Cybersécurité et Risques Numériques (DCRN) et plus particulièrement l’accompagnement des chefs de projet pour l’identification des risques de sécurité et la réalisation d’analyses de risques (Intégration de la Sécurité dans les Projets - Security by Design) MISSIONS: Contribuer, lors des avant-projets, à la définition des exigences de sécurité des projets inscrits aux feuilles de route des Directions Métiers. • Soutenir les MOA et les Directions Métiers dans la classification des données personnelles et des données sensibles, • Procéder à des analyses de risques et émettre des préconisations pour réduire ces risques, • Assurer la qualification des fournisseurs et des sous-traitants de la DSI au regard des exigences de cyber-sécurité et de conformité règlementaire • Contribuer à l’accompagnement des projets techniques en matière de cyber-sécurité • Assurer l’expression des besoins transverses en matière de cyber-sécurité et garantir la mise en œuvre des projets spécifiques y répondant Les périmètres d'interventions principaux seraient : La data (datahub), la téléphonie d'entreprise, la gestion documentaire (GED, éditique, dématérialisation entrante, sortante, etc)
7003 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous