Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 498 résultats.
Freelance
CDI

Offre d'emploi
Data Product manager

ANDEMA
Publiée le
Microsoft Power BI

6 mois
40k-63k €
450-500 €
Lille, Hauts-de-France
Raison d’être du poste : Le Data Product Manager assure l'interface stratégique et opérationnelle entre les Data Owners métier et l'équipe technique Data. Sa mission est de transformer la donnée issue des différents systèmes en produits analytiques performants pour piloter l'offre, l'impact scientifique du client et les processus d'accréditations internationales. Expert en modélisation Power BI, il garantit la fiabilité des indicateurs et la sécurité des accès, tout en challengeant les besoins métiers pour maximiser la valeur ajoutée des solutions déployées Finalités et Résultats Attendus : 1. Analyse, modélisation et structuration des données Analyser les modèles de données des différentes applications contributrices (sources de données ou consommatrices/cibles de données) Modéliser les données métiers (programmes, faculté, recherche et accréditations) dans un modèle commun ‘SKEMA’, développer des data products (PowerBI et autres) répondant aux besoins métier et maintenir le modèle sémantique de l'école. Définir et gérer la gouvernance des accès et la sécurité des données (Row Level Security) pour chaque data product. 2. Conception et développement des data products Ecrire les spécifications techniques pour les opérations de manipulation de données Documenter les logiques métier de transformation Comprendre, piloter les flux d’intégration et de transformation de données (Azure Data Factory, Synapse, PowerBI [demain Fabric / Databricks ou autres]) Développer les data products en lien avec les data owners et les équipes data Tester et valider la cohérence des flux de données entre les systèmes producteurs et les data products finaux. Suivre l’adoption des data products (usage, accès …) 3. Qualité et fiabilité des données Direction des Ressources Humaines Participer aux projets de migration et de mise en qualité des données entre systèmes applicatifs afin d’identifier les impacts sur le périmètre des data products concernés. Assurer la fiabilité des données, les contrôles de cohérence et participer au support technique associé des data products. 4. Structuration de la plateforme Data Avoir une compréhension d’une data plateforme et d’une modélisation médaillon Piloter la mise à disposition de donnée dans la data plateforme pour permettre la réalisation des data products. 5. Collaboration et accompagnement Savoir faire le pont entre les équipes métiers (vulgarisation des concepts) et les équipes techniques pour l’évolution des usages data Animer la communauté des data owner de l’univers « Offre d'enseignement & Impact scientifique » Environnement data : Modélisation de donnée • Power BI • Fabrics (est un plus) • Synapse / Azure (est un plus) • Databricks (est un plus) • Git, DevOps • SQL
CDI

Offre d'emploi
Customer Technology Advisor (Product Owner Technique) (H/F)

█ █ █ █ █ █ █
Publiée le
Ansible
Big Data
CI/CD

55k-70k €
Neuilly-sur-Seine, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Ingénieur DataOps / DevOps Data (H/F)

emagine Consulting SARL
Publiée le
AWS Cloud
Azure
CI/CD

36 mois
Niort, Nouvelle-Aquitaine
Dans le cadre du renforcement de sa plateforme data, un grand groupe du secteur assurantiel recherche un Ingénieur DataOps afin d’accompagner l’industrialisation, la fiabilisation et l’exploitation de ses environnements data. Vous interviendrez au sein d’une équipe dédiée à la performance et à la stabilité des services data, avec pour objectif d’assurer leur disponibilité et leur évolutivité. Vous participerez activement à la mise en place et à l’amélioration des pipelines de déploiement (CI/CD), à l’automatisation des processus, ainsi qu’à la gestion des environnements de production et de test. Vous serez également impliqué dans la supervision des systèmes, la gestion des incidents, et la mise en œuvre des exigences non fonctionnelles (sécurité, performance, scalabilité). Enfin, vous contribuerez à l’amélioration continue des pratiques DataOps et à la documentation des solutions mises en place.
Freelance

Mission freelance
Data Analyst – AI Governance

Okara
Publiée le
Collibra
Google Cloud Platform (GCP)
Looker Studio

9 mois
Lille, Hauts-de-France
🎯 Okara cherche un Data Analyst – AI Governance & Insights L’enjeu : Devenir la boussole stratégique de l'IA chez l'un de nos clients leaders mondiaux du retail. En tant que consultant·e Okara, tu rejoins l'équipe IA Transverse de notre client pour structurer l'adoption de l'IA à l'échelle internationale. Ton terrain de jeu ? L' AI plateforme , l'outil critique qui permet de piloter la valeur, de standardiser les processus et d'outiller toutes les initiatives IA. 🚀 Ton rôle Tu es le moteur de la refonte de l'AI: l'enjeu c'est de quitter l'artisanat des feuilles de calcul pour bâtir une gouvernance industrialisée et intégrée. Concrètement, tu vas : Réinventer le Workflow : Piloter la migration vers Collibra . Tu ne te contentes pas de paramétrer, tu dessines les processus de demain (règles de validation, alertes, intégration aux SI existants). Transformer la donnée en Insights : Analyser l'existant pour identifier les axes d'amélioration et faire évoluer la dataviz sous Looker . Optimiser la tuyauterie (Data Engineering) : Collaborer à la refonte du DBT pour garantir des flux de données fluides et fiables entre les sources et la restitution. Acculturer à l'international : Être le pont entre les AI Leaders mondiaux et la technique. Tu vulgarises et traduis les besoins métiers en solutions robustes.
Freelance

Mission freelance
Administrateur Système et réseau H/F

ADSearch
Publiée le
Cloud
Linux
PostgreSQL

3 mois
Nantes, Pays de la Loire
Contexte de la mission Dans le cadre d’un programme de transformation et de sécurisation de son SI, notre client du secteur bancaire recherche un consultant freelance spécialisé en administration systèmes, réseaux et bases de données PostgreSQL. La mission s’inscrit dans un environnement critique nécessitant un haut niveau d’exigence en termes de disponibilité, performance et sécurité. Objectifs de la mission Garantir la disponibilité et la performance des infrastructures systèmes et réseaux Assurer la fiabilité et l’optimisation des bases PostgreSQL Renforcer la sécurité et la conformité des environnements Participer aux projets d’évolution et de modernisation du SI Périmètre d’interventionSystèmes & Réseaux Administration et maintien en condition opérationnelle des serveurs (Linux majoritairement) Gestion des infrastructures réseaux (LAN/WAN, VPN, firewall) Supervision, diagnostic et résolution d’incidents (N2/N3) Mise en œuvre des politiques de sécurité PostgreSQL (cœur de mission) Administration avancée des bases PostgreSQL Mise en place et gestion de la haute disponibilité (réplication, clustering) Optimisation des performances (tuning, requêtes, index) Gestion des sauvegardes, restaurations et PRA/PCA Support aux équipes applicatives Sécurité & conformité Application des normes de sécurité (environnement bancaire) Contribution aux audits et contrôles Gestion des accès et habilitations
Freelance
CDD

Offre d'emploi
Architecte Big Data / Expert Databricks (H/F)

SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

6 mois
75k-90k €
700-750 €
Île-de-France, France
Dans un contexte d’accélération des projets data et de modernisation des plateformes analytiques, notre client recherche un Architecte Big Data / Expert Databricks H/F; Votre rôle sera clé pour concevoir des architectures data modernes, optimiser les performances et les coûts, tout en accompagnant les équipes dans leur montée en compétences. Vos missions Concevoir des architectures Big Data / Modern Data Stack robustes et scalables Réaliser des études techniques et cadrages des besoins data Définir et valider des architectures data sur Databricks et AWS Conduire des audits de performance et de code Produire des dossiers d’architecture (6 à 8 par an) Élaborer des supports de formation (10 à 12 par an) Animer des sessions de formation et de montée en compétences Rédiger des comptes-rendus d’audit (4 à 6 par an) Conseiller sur les bonnes pratiques d’optimisation des coûts et des performances
Freelance

Mission freelance
Consultant technique SAP Data Migration (Syniti ADM) - IDF

Signe +
Publiée le
SAP ABAP

6 mois
500-700 €
Paris, France
Dans le cadre d’un programme stratégique, notre client engage une transformation de son système d’information avec le déploiement de SAP S/4HANA . La mission s’inscrit dans un contexte à forts enjeux autour de la migration des données , élément clé pour garantir la continuité des opérations métiers et le respect du planning projet. En tant que Consultant SAP Data Migration, vous interviendrez sur : Le développement et paramétrage des objets de migration dans Syniti ADM La conception et maintenance des extracteurs SAP (ABAP, BAPI, LSMW, IDoc, OData) L’ analyse des structures de données sources (ECC) et cibles (S/4HANA) La définition des règles de transformation, mapping et validation des données Le support aux cycles de migration : mock runs, SIT, UAT, cutover La gestion des anomalies techniques et l’optimisation des performances de chargement La collaboration étroite avec les équipes fonctionnelles, techniques et data Informations complémentaires : Localisation : Île-de-France Présence sur site : Minimum 3 jours par semaine Démarrage : ASAP Habilitation Obligatoire
Freelance
CDD

Offre d'emploi
Data Engineer Azure Databricks H/F

SMARTPOINT
Publiée le
Apache Spark
Azure
CI/CD

8 mois
50k-60k €
460-500 €
Île-de-France, France
Analyse des traitements existants dans le cadre de projets de migration de données Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake Développement de notebooks Databricks pour des traitements avancés de données Mise en œuvre de solutions de Cloud Data Warehousing , incluant l'optimisation des traitements et le tuning de requêtes SQL Rédaction de la documentation technique (Dossiers d'Analyse Technique, release delivery notes, etc.) Réalisation de revues de code dans une logique de qualité et de bonnes pratiques Conception et exécution de tests unitaires Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés
CDI

Offre d'emploi
Chef de projet Data & Pilotage technique (H/F)

█ █ █ █ █ █ █
Publiée le

Nanterre, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDD
CDI
Freelance

Offre d'emploi
Expert cybersécurité - Security by Design

KEONI CONSULTING
Publiée le
Big Data
GED (Gestion Électronique des Documents)
MOA

18 mois
20k-60k €
100-550 €
Niort, Nouvelle-Aquitaine
Contexte : Dans le cadre de la Direction Cybersécurité et Risques Numériques (DCRN) et plus particulièrement l’accompagnement des chefs de projet pour l’identification des risques de sécurité et la réalisation d’analyses de risques (Intégration de la Sécurité dans les Projets - Security by Design) MISSIONS: Contribuer, lors des avant-projets, à la définition des exigences de sécurité des projets inscrits aux feuilles de route des Directions Métiers. • Soutenir les MOA et les Directions Métiers dans la classification des données personnelles et des données sensibles, • Procéder à des analyses de risques et émettre des préconisations pour réduire ces risques, • Assurer la qualification des fournisseurs et des sous-traitants de la DSI au regard des exigences de cyber-sécurité et de conformité règlementaire • Contribuer à l’accompagnement des projets techniques en matière de cyber-sécurité • Assurer l’expression des besoins transverses en matière de cyber-sécurité et garantir la mise en œuvre des projets spécifiques y répondant Les périmètres d'interventions principaux seraient : La data (datahub), la téléphonie d'entreprise, la gestion documentaire (GED, éditique, dématérialisation entrante, sortante, etc)
Freelance
CDI

Offre d'emploi
Data Engineer IA

Craftman data
Publiée le
DevOps
Docker
Github

6 mois
40k-45k €
390-540 €
Île-de-France, France
Maintien en condition opérationnelle et industrialisation du Portail Multi‑IA Générative dans un contexte multi‑environnements (On‑Premise, GCP, cloud de confiance à venir). Mise en œuvre et optimisation des chaînes CI/CD (GitLab), de l’Infrastructure as Code (Terraform) et de l’automatisation des déploiements. Contribution à la sécurité, conformité et observabilité des usages IA générative (IAM, secrets, logs, metrics, traces, FinOps). Mise en place et exploitation des pratiques LLMOps : observabilité LLM, évaluations continues (qualité, sécurité, coûts), guardrails et HITL. Conception et préparation de la V2 du Portail IA (architecture cible, HLD/LLD, migration). Support technique N2/N3, analyse et résolution d’incidents, assistance aux mises en production. Production de la documentation technique (runbooks, playbooks, architectures) et transfert de compétences vers les équipes internes.
CDI

Offre d'emploi
Expert Collibra – Data Governance

Craftman data
Publiée le
Collibra
Microsoft Power BI

55k-65k €
Île-de-France, France
Contexte Dans le cadre du renforcement de sa stratégie Data, un acteur majeur du secteur bancaire recherche un Expert Collibra pour accompagner son Data Office au sein du Digital Excellence Center. Vous interviendrez sur une plateforme data stratégique, au cœur des enjeux de data governance, BI et valorisation des données, avec une forte interaction entre les équipes métiers et IT. Missions Analyse des besoins métiers et IT liés à la gouvernance des données Structuration et intégration de la documentation data dans Collibra Paramétrage de la solution (dashboards, vues, workflows) Accompagnement des data stewards et data custodians Animation d’ateliers (formation, démonstrations, adoption) Contribution à l’évolution de l’offre de service Collibra Tests des nouvelles fonctionnalités et releases Support utilisateurs et gestion des incidents Travail sur les intégrations avec l’écosystème data (BI, API, SGBD)
CDI

Offre d'emploi
Data Engineer Databricks

ASTRELYA
Publiée le
Amazon S3
Ansible
Apache Spark

Noisy-le-Grand, Île-de-France
Astrelya est un cabinet de conseil franco‑suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 expert passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre mission : En tant que Data Engineer Databricks vous participez à la définition de l’architecture de la data platform et du Datawarehouse/Data Lake. Concevoir et développer des nouvelles fonctionnalités sur des applications hébergées par les plateformes Data. Développer et maintenir des pipelines de données performants (batch & streaming) et participer à toutes les étapes de traitement des données du niveau bronze au niveau gold. Garantir la sécurité, la robustesse et la fiabilité des pipeline de données en veillant aux enjeux de performance, d’accessibilité et d’intégrité des données. Contribuer à l’implémentation d’un Data Lab pour accélérer les usages Data & IA. Mettre en place et industrialiser des chaines CI/CD. Participer aux mises en production et au support en cas d’incident majeur. Travailler aux côtés de Data Product Owner, Data Architect et de BI & Analytics Engineer. Participer aux cérémonies agiles organisées par la squad : daily, sprint planning, sprint review, sprint rétrospective Effectuer une veille technologique continue sur de nouvelles solutions et tendances Data.
Freelance

Mission freelance
Data Steward

Signe +
Publiée le
BI

12 mois
400-420 €
Mérignac, Nouvelle-Aquitaine
Dans le cadre d'un programme de transformation numérique, le Data Steward interviendra sur la refonte d'un SI documentaire dans le secteur de l'énergie ( Socle GED ). Missions principales Structuration et maintien du Modèle d'Organisation des Métadonnées (MOM) Construction des glossaires métiers documentaires et modèles de données Pilotage de la qualité des données et des indicateurs associés Mise en place des lignages de données Appui à la préparation à la migration du socle GED Identification et cadrage de cas d'usages Data / IA documentaires (OCR, NLP, GenAI) Profil recherché Intitulé : Data Steward Expérience : 5 à 7 ans Compétences techniques requises Data Stewardship et gouvernance de la donnée (confirmé) Modélisation de données et maîtrise du SQL Data Management, MOM Outils : JIRA, Confluence, MEGA HOPEX, Microsoft Power BI
Freelance

Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/l

WorldWide People
Publiée le
Data science

6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
CDI

Offre d'emploi
Chargé de data et performance livraison dernier kilomètre F/H

█ █ █ █ █ █ █
Publiée le
Python
SQL

Nanterre, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

6498 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous