Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 484 résultats.
Freelance

Mission freelance
101058/Data Scientist Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT)

WorldWide People
Publiée le
Data science

9 mois
400-450 €
Nantes, Pays de la Loire
Data Scientist IA GEN, Python, Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT). - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Notre client attend de la candidature que vous proposerez : - qu'elle soit autonome sur l'IA Gen (prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails) - qu'elle dispose d'une expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur) Enfin qu'elle ait : - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch
Freelance
CDI

Offre d'emploi
Data Engineer SENIOR

Tritux France
Publiée le
Cloud
Data Lake
Pandas

3 ans
40k-45k €
400-470 €
Île-de-France, France
Objectif de la mission Au sein d’une équipe produit, vous interviendrez sur la conception, le développement et l’industrialisation de pipelines de données complexes, dans un environnement technique moderne et orienté performance. Votre objectif principal est de garantir des solutions data : Scalables Maintenables Alignées avec les standards d’architecture et de qualité Missions & responsabilités Ingénierie & Développement Concevoir et développer des pipelines de données robustes et performants Participer à la définition et à la mise en œuvre d’architectures data Garantir la qualité du code (Clean Code, DDD, peer review) Documenter les solutions Industrialisation Mettre en place des mécanismes d’observabilité (monitoring, logs, alerting) Optimiser les performances et les coûts (FinOps Data) Assurer la sécurité et la conformité des données Expertise & Collaboration Traduire les besoins métier en solutions techniques Contribuer aux rituels agiles et à la conception des user stories Résoudre les incidents de production et anticiper les risques Collaborer avec les équipes transverses Participer au partage des bonnes pratiques
Freelance

Mission freelance
PRODUCT OWNER

SKILLWISE
Publiée le
Big Data

3 mois
400-550 €
Île-de-France, France
Au sein de la Direction des Technologies, vous intégrez le pôle Produits Publicitaires en tant que Product Owner Offre . Vous intervenez sur un produit stratégique dédié à la gestion des catalogues d’offres, de l’inventaire et du pricing sur des environnements TV et Digital. En collaboration avec un autre Product Owner et des équipes pluridisciplinaires, vous êtes responsable de la vision produit, de la priorisation et du delivery dans un environnement agile. Vos missions principales : Vision & stratégie produit Définir et porter la vision produit Construire et piloter la roadmap Garantir l’alignement avec les enjeux métiers (marketing, revenue management) Gestion du backlog Recueillir et analyser les besoins métiers Rédiger les spécifications fonctionnelles (user stories) Prioriser et maintenir le Product Backlog selon la valeur métier Pilotage du delivery Coordonner les équipes techniques (développement, data, API…) Suivre l’avancement en méthodologie agile Garantir le respect des délais, de la qualité et des coûts Recette & mise en production Organiser et piloter la recette fonctionnelle Valider les livrables Assurer les mises en production RUN & amélioration continue Suivre la performance du produit Gérer les incidents et évolutions Optimiser en continu les fonctionnalités Accompagnement au changement Accompagner les utilisateurs dans l’adoption des outils Assurer la communication produit Faciliter la conduite du changement Responsabilités clés : Ownership du Product Backlog Priorisation basée sur la valeur métier Cohérence du SI avec les autres produits Pilotage de la valeur délivrée Qualité des livrables à chaque sprint
CDI

Offre d'emploi
Administrateur Infrastructures : Systèmes et Réseaux - H/F

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le

35k-45k €
Toulon, Provence-Alpes-Côte d'Azur
L'Administrateur Infrastructures installe, met en production et maintient les éléments d'une infrastructure, ou un système de gestion de données, afin d'assurer la disponibilité du système, ainsi que l'intégrité et la confidentialité des données. Il participe, avec les architectes infra et cyber, à la définition et à la mise en oeuvre des évolutions du système d'information grâce à sa proximité du terrain. Il assure également le suivi documentaire lié à la prestation (procédures, notes techniques, modes opératoires, schémas, etc.). ACTIVITES PRINCIPALES Maintenance • Maintenir les conditions opérationnelles de production et de service ; • Mesurer et optimiser les performances du système ; • Développer et mettre en œuvre des automatisations de procédures afin d'améliorer l'industrialisation de la production ; • Surveillance des journaux d'évènements, analyse des logs, supervision du SI ; • Assurer les mises à jour, mises en service, et montées de version en accord avec les règles définies par la Direction du Système d'Information concerné. Gestion des incidents et des demandes • Gérer les droits d'accès aux systèmes, bases de données et aux applications en fonction des règles définies au sein de la Direction du Système d'Information concerné ; • Analyser et traiter, dans le cadre de la chaîne de support, les incidents et les demandes escaladées, dans le respect des engagements contractuels (N1 à N3). Gestion des changements • Signaler les obsolescences et les risques d'altération de la performance ou de la sécurité du système et des postes de travail ; • Proposer des solutions d'évolution ou de remplacement ; • Installer, tester et mettre en production les nouvelles solutions validées par la Direction du Système d'Information concerné. Gestion des RFC conformément aux processus ITIL, suivi des changements de bout en bout. Documentation support et reporting • Assurer la traçabilité et l'exploitation des évènements survenus au sein du système ; • Etablir et mettre à jour tous les documents techniques nécessaires au maintien de l'infrastructure en condition opérationnelle (documents d'exploitation, document d'architecture technique, cartographie, CMDB, procédures, etc..) • Assurer l'assistance auprès des utilisateurs et des métiers ainsi que le transfert de transfert de compétences aux équipes connexe ; • Assurer l'assistance technique et le transfert de compétences aux équipes d'exploitation ; • Assurer le reporting de ses activités dans l'outil mis à sa disposition et auprès de son responsable direct. • Des missions complémentaires peuvent être confiées à l'Administrateur Infrastructures. Référence de l'offre : 6h5w540m6d
CDI

Offre d'emploi
Data Engineer H/F

JEMS
Publiée le

45k-55k €
Nantes, Pays de la Loire
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : 8vpph62lhn
Freelance

Mission freelance
Consultant Data Google - Niort

Signe +
Publiée le
BigQuery
Google Tag Manager
Javascript

6 mois
350-380 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Au sein de la Direction du Digital et des Systèmes d'Iformation de la Macif. avec l'équipe en charge de la collecte, de la transformation et de la restitution des données collectées sur les canaux digitaux. Nous recherchons une prestation sur la suite Data de Google (Google Tag Management, Looker Studio et BigQuery). Objectifs et livrables Exploitation des données Le fonctionnement en mode SAFe implique des livraisons à fréquences régulières. Dans ce cadre, de nouvelles données sont créées en permanence et nécessitent d’être mises à disposition pour répondre aux besoins de reporting. Les missions sont : Collaborer avec les autres membres de l’équipe sur les données nécessaires à la mesure des features : définition des objectifs / KPI’s Accompagner dans la définition des besoins en tracking Recetter les données lorsque la feature est en phase de test Recetter les données après la mise en production de la feature Préparer et ingérer des données dans Big Query (en Node JS) Mise à disposition des données fiabilisées dans Looker Studio Participer à l’analyse des données produites, en tirer des enseignements
CDI

Offre d'emploi
Data Scientist / AI Engineer

█ █ █ █ █ █ █
Publiée le
Ocaml
Python

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
249593/Product Owner DATA SUR DES DONNEES RH - Expertise dans la création de Datalake RH

WorldWide People
Publiée le
Data Lake

9 mois
Saint-Denis, Île-de-France
PO DATA SUR DES DONNEES RH - Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP • Product Owner Data dans le cadre du projet DataSmart RH Les données RH sont actuellement exploitées manuellement via Excel, ce qui engendre un risque d'incohérences et une sécurité limitée. Le besoin est de disposer d'une base unique, automatisée, sécurisée et actualisée quotidiennement. Nature de la prestation à effectuer : Il/Elle adressera les actions suivantes : - Designer les alimentations des données (fréquence, groupes de données, mode delta et/ou full, stockage et data préparation) - Réaliser les spécifications détaillées des besoins d’extraction vis-à-vis de ADP et SuccessFactors afin de répondre aux besoins métier et de respecter ceux de l’environnement Data de Generali (pour la création du Data Domain) - Prendre en compte les autres systèmes providers de données (bases mortes et autre système opérationnel de formations, WeLearn/Cornerstone) - Être force de proposition pour la gestion des habilitations sur les données - Participer à la recette des extractions et des imports dans le Data Domain Il/Elle sera sous la responsabilité du manager de l'équipe Pilotage SIRH et travaillera avec l’ensemble des parties-prenantes : - L’équipe métier : Pilotage RH - L’équipe AMOA Pilotage SIRH - L’équipe IT RH - L’équipe IT DATA - Les éditeurs 2. Management de projets product owner Sénior PRO_OWN-3 Référent de la vision métier au sein des équipes agiles : - Collabore avec les métiers pour élaborer la vision du produit - Partage cette vision avec les équipes de développement agile - Mène une réflexion stratégique préparatoire des versions à venir Priorisation par la valeur du contenu métier : - Identifie les fonctionnalités et exigences attendues - Priorise toutes les users stories au sein du Product Backlog - Maintien le product backlog et cherche en permanence à maximiser la valeur métier pour les utilisateurs Transmission aux équipes agiles pour assurer la compréhension du besoin métier : - Découpe chaque fonctionnalité en user story pouvant être implantée en une seule itération - Définit les critères d'acceptation indispensables à sa bonne compréhension par les équipes agiles - Intègre et suit la prise en compte des exigences non fonctionnelles (ENF : accessibilité, sécurité IT, RGPD, RSE...) dès l'étape de conception - Contribue aux réunions agiles avec les équipes de développement et le Scrum Master Recette des éléments métiers produits par l'équipe agile : - Réalise ou organise le déroulement des tests utilisateurs - Récolte les feedbacks des utilisateurs pour les équipes de développement Objectifs et livrables Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP • Compétences demandées Compétences Niveau de compétence donnée rh : GA / PAIE / GT / FORMATION Confirmé standard adp Confirmé Power BI Confirmé datalake rh Confirmé
CDI

Offre d'emploi
Chef.fe de projet Data H/F

FED SAS
Publiée le

50k-60k €
Charenton-le-Pont, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Charenton le pont un Chef de projet Data H/F dans le cadre d'un CDI. Rattaché.e au Directeur des Systèmes d'Information, vos missions s'articuleront autour de plusieurs axes : Conception * Recueillir et analyser les besoins métiers en matière de data, d'intégration, et de reporting * Développer, optimiser et documenter les flux d'intégration (Talend), en garantissant la qualité et la sécurité des données. * Garantir la cohérence et la pérennité des solutions déployées dans l'écosystème SI (Microsoft 365, Dynamics 365…). Gestion de projet * Piloter les projets d'intégration de données : cadrage, planification, suivi, coordination des parties prenantes (DSI, métiers, partenaires). * Assurer la gestion opérationnelle des projets : gestion des risques, reporting, respect des délais et des budgets. * Accompagner le changement auprès des utilisateurs et assurer le support technique sur les outils data/intégration. Veille technologique * Assurer une veille active sur les outils d'intégration, la BI, la data * Proposer des axes d'amélioration continue et d'innovation (automatisation, datalake, nouveaux usages, BI…). * Participer à la diffusion des bonnes pratiques et à la montée en compétence des équipes internes
CDI

Offre d'emploi
Data Analyst (H/F) - Alternance

█ █ █ █ █ █ █
Publiée le
Big Data
Microsoft Excel
Python

Puteaux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Directeur de Projet Data (Data Services) F/H

SMARTPOINT
Publiée le
Agent IA
BI
Big Data

12 mois
600-700 €
Paris, France
Mission principale Le Directeur de Projet Data a pour mission de piloter des projets Data & IA structurants au sein de l’entité Data Services. Il coordonne les équipes internes et les centres de services (CDS) et garantit la qualité des livrables, le respect des budgets ainsi que des délais de livraison. Tâches et activités Piloter l’activité projet : planification, suivi des charges, budgets et ressources Coordonner les équipes internes et les centres de services (CDS) Animer les instances de gouvernance (COPIL / COPROJ) Assurer le cadrage des besoins métiers et techniques Organiser le reporting projet auprès des parties prenantes Suivre les risques, dépendances et plans d’actions associés Garantir la bonne exécution des projets dans le respect des engagements Livrables et résultats attendus Suivi hebdomadaire de l’activité projet (planning, risques, avancement) Suivi financier mensuel des projets (budget, consommé, forecast) Préparation et animation des comités de pilotage et comités projet Reporting régulier à destination des directions métiers et IT Respect des engagements en termes de qualité, coûts et délais Compétences techniques Maîtrise des outils de gestion de projet (Jira) Bonne connaissance des environnements Cloud AWS Utilisation des outils ITSM (ServiceNow) Vision globale des outils et architectures décisionnelles (Data, BI, IA) Compréhension des enjeux des plateformes Data & transformation digitale Compétences clés Leadership et coordination multi-équipes Capacité de communication et de reporting Rigueur et sens de l’organisation Gestion des priorités et des risques Orientation résultats et qualité de delivery
CDI

Offre d'emploi
Ingénieur Data & API (H/F)

SYAGE
Publiée le
Apache Kafka
API REST
GraphQL

Monaco-Ville, Monaco
Mission : Au sein de l’équipe d’Ingénierie Logicielle, vous interviendrez dans les projets digitaux sur l’intégration de flux de données inter-applicatifs et DATA, et la mise en œuvre de l’exposition d’API via une plateforme d’API Management (). Principales Activités : Vous serez chargé(e) de l’architecture et l’intégration des flux dans la plateforme KESTRA (batch, ETL, event streaming...) Vous assurerez l’implémentation script ETL Python dans le cadre des flux de données Vous prendrez en charge l’exposition et la création d’API sur la plateforme d’API Management avec notamment : sécurisation, filtrage, médiation de protocole Lien hiérarchique : Responsable Informatique Ingénierie logicielle Manager : Non
Freelance

Mission freelance
Tech Lead Data ( H / F )

Ness Technologies
Publiée le
Apache Kafka
IBM Cloud

6 mois
390-450 €
Seine-Saint-Denis, France
Tech Lead Data (Kafka / Cloud IBM) – H/F Rôle En tant que Tech Lead Data, vous êtes responsable de la conception, de la mise en œuvre et de l’évolution des architectures data en environnement distribué. Vous intervenez à la fois sur des sujets techniques pointus (streaming, data engineering, cloud) et sur l’encadrement d’une équipe de développeurs/data engineers. Responsabilités / Missions Piloter la conception et l’évolution de l’architecture data (batch & streaming) Concevoir et implémenter des pipelines de données temps réel basés sur Apache Kafka Garantir la scalabilité, la performance et la résilience des solutions data Encadrer techniquement une équipe de data engineers (revue de code, bonnes pratiques, mentoring) Participer aux choix d’architecture et aux orientations techniques Assurer l’intégration des solutions dans un environnement cloud (idéalement IBM Cloud) Collaborer avec les équipes métiers, DevOps et architecture Mettre en place des bonnes pratiques (CI/CD, DataOps, monitoring, sécurité) Gérer les problématiques de gouvernance et de qualité des données Assurer une veille technologique continue
Freelance

Mission freelance
Data Engineer Senior F/H

SMARTPOINT
Publiée le
AWS Cloud
CI/CD
DevOps

12 mois
480-500 €
Île-de-France, France
Mission principale Assurer le développement, la mise en œuvre opérationnelle et la maintenance des pipelines et services de données au sein de la plateforme Data. Services, en garantissant leur fiabilité, performance et sécurité. Tâches & activités Concevoir et développer des pipelines de données (ETL) notamment avec Kestra Manipuler, transformer et optimiser les données (SQL / NoSQL) Assurer la maintenance en conditions opérationnelles (MCO) des pipelines et services data Participer à la sécurisation des migrations fonctionnelles et techniques Contribuer à l’amélioration continue des processus data (qualité, performance, monitoring) Collaborer avec les équipes techniques et métiers pour cadrer et implémenter les besoins Livrables & résultats attendus Développement de 10 à 14 pipelines / algorithmes par an Maintien en conditions opérationnelles des solutions (suivi quotidien) Production de rapports d’activité et comptes rendus d’intervention Garantie de la qualité, de la fiabilité et de la performance des flux de données Compétences techniques Excellente maîtrise de SQL et des outils ETL (Kestra) Bonne connaissance des environnements Cloud AWS Culture DevOps / CI-CD (industrialisation, automatisation) Compétences en modélisation de données (UML est un plus) Connaissance des bases NoSQL
Freelance

Mission freelance
Data Engineer H/F

HAYS France
Publiée le
Data Lake
Microsoft Analysis Services (SSAS)
Microsoft Power BI

1 an
Île-de-France, France
Contexte de la mission Dans le cadre du programme de Digital and Data Transformation , a la charge de la conception, de la livraison et du cycle de vie des data products supportant les initiatives stratégiques data du Groupe. Le Data Engineer interviendra sur la construction et l’évolution des plateformes et pipelines data , la transformation de données brutes en données à forte valeur ajoutée, ainsi que l’amélioration continue des actifs data, en collaboration avec des équipes internationales. Prestation Attendue Data Engineering & Delivery • Conception et mise en œuvre des pipelines ETL / ELT • Développement de jobs ETL réutilisables • Gestion des chargements Delta / Full / Historique • Debugging et résolution d’incidents en production • Mise en œuvre des bonnes pratiques de développement à la mise en production Collaboration & Méthodologie • Travail en étroite collaboration avec le Product Owner, les équipes data et plateforme • Contribution aux phases de Data Scoping / Discovery • Méthodologie Agile • Interaction avec des équipes distribuées (multi‑pays) Livrables • Composants data développés et déployés (code source) • Documentation technique et fonctionnelle • Modèle de données documenté • Rapports d’audit et de sanity check • Rapports de tests d’acceptation • Transfert de compétences et support aux équipes
CDI

Offre d'emploi
DATA ANALYST H/F

█ █ █ █ █ █ █
Publiée le
DBeaver
Git
Github

42k-47k €
Niort, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

6484 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous