Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 041 résultats.
CDI

Offre d'emploi
Data Scientist / AI Engineer (Agentique) (H/F)

█ █ █ █ █ █ █
Publiée le
Docker
Python
Pytorch

52 500 €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Engineer H/F

JEMS
Publiée le

45k-55k €
Nantes, Pays de la Loire
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : a10nad07cd
CDI

Offre d'emploi
Data scientist (H/F)

█ █ █ █ █ █ █
Publiée le
Big Data

Lille, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Tech Lead Data & BI (H/F)

1G-LINK CONSULTING
Publiée le
PowerBI
Snowflake

8 mois
Île-de-France, France
Contexte Dans le cadre du développement de ses activités Data & Analytics, notre client renforce ses équipes avec un(e) Data & BI Tech Lead. Vous interviendrez sur des projets stratégiques impliquant des sources de données variées (ERP, CRM, applications métiers), avec pour objectif de structurer les modèles de données, industrialiser les pipelines et garantir la qualité des solutions BI. Vous jouerez un rôle central de référent technique, en accompagnant les équipes Data Engineers et BI Engineers. Missions Traduire les besoins métiers en solutions techniques Concevoir les modèles physiques de données dans Snowflake Définir les choix de modélisation, d’intégration et de transformation Accompagner les Data Engineers sur les pipelines data Encadrer les BI Engineers sur les développements Power BI Promouvoir les bonnes pratiques (qualité, performance, maintenabilité) Mettre en place des pipelines robustes et automatisés Garantir la documentation et la réutilisation des patterns Déployer les pratiques CI/CD et standards de développement Superviser la conception des datasets et rapports Power BI Assurer la performance et la cohérence des solutions livrées Sécuriser les choix techniques sur les sujets sensibles Accompagner la montée en compétence des équipes Assurer le transfert de connaissances Collaborer avec des équipes distribuées (international) Compétences techniques Snowflake Power BI (modélisation, datasets, performance) Data modeling Pipelines data & automatisation Airflow / Astronomer GitHub & CI/CD Connaissance de sources type ERP / CRM (SAP, Salesforce) Expérience en environnement Azure Contexte
Offre premium
Freelance

Mission freelance
Développeur Fullstack Java / Data

CONSULT IT
Publiée le
Angular
Apache Kafka
Apache Spark

3 ans
400-500 €
Montrouge, Île-de-France
Développement Java back-end Conception de modules de collecte (API calls, fichiers, BDD), intégration OAuth2 / SSO, architecture microservices, API REST/SOAP. Traitement de données Spark Mise en place et optimisation de pipelines Spark 3 (collecte → transformation → distribution) sur l'ensemble de la chaîne de traitement. Gestion Kubernetes Déploiement, gestion et optimisation des applications sur cluster Kubernetes, bonnes pratiques DevOps, sécurité des applications. Tests automatisés Cucumber Écriture et maintien de tests automatisés (BDD), garantie de la qualité du code, approche TDD sur les API. Visualisation PowerBI Conception et développement de dashboards et rapports PowerBI en collaboration directe avec les équipes métier. Interface infrastructure & delivery Collaboration avec le partenaire infra du client, commande de ressources, suivi du delivery et post-production, force de proposition.
CDD
CDI
Freelance

Offre d'emploi
Data Analyst en Full Remote (Lyon)

R&S TELECOM
Publiée le
IA Générative
Snowflake
SQL

6 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Au sein de la DSI, le projet concerné est une plateforme digitale transversale inscrite dans les objectifs digitaux 2026 du client. Elle s’intègre dans la chaîne de valeur Commerciale et contribue à la stratégie globale de transformation digitale. Le projet permet une capacité de type “Talk to your data” : une interface en langage naturel permettant aux collaborateurs de poser des questions et d’obtenir des réponses sans expertise technique. Aujourd’hui, 35 utilisateurs exploitent la plateforme, avec un objectif de 700+ utilisateurs d’ici fin 2026. La mission porte principalement sur le backend et la couche sémantique, afin de permettre à l’agent IA (LLM) de générer des requêtes SQL fiables à partir des demandes utilisateurs. L’environnement technique repose sur Snowflake, incluant les fonctionnalités AI Cortex. Tâches à réaliser : Compréhension Fonctionnelle & Cohérence Produit Assurer l’alignement entre les besoins métier et les capacités de la solution. Maintenir la cohérence fonctionnelle et la qualité du produit Coordination & Gestion des Exigences Collaborer avec les fournisseurs de données pour clarifier les besoins et garantir la disponibilité des données. Travailler étroitement avec le Product Owner pour affiner et prioriser les fonctionnalités. Contribution aux User Stories & au Backlog Participer à la rédaction des user stories (définir ce qui doit être fait). Définir les fonctionnalités du produit et contribuer à la planification des releases. Prioriser les fonctionnalités et ajuster le périmètre à chaque itération. Garantir la préparation des user stories pour le développement. Accepter ou rejeter les résultats livrés selon les critères définis. Assurance Qualité Contribuer à la création et à l’exécution des cas de test. Valider les modèles de données et leur adéquation aux besoins analytiques. Participer aux contrôles de qualité des données et aux tests fonctionnels. Compétences recherchées : Obligatoires : Maîtrise avancée de SQL et expérience confirmée sur Snowflake. Solides compétences en modélisation de données. Expérience en data quality, testing et validation. Connaissance des concepts IA / GenAI appréciée. Expérience précédente sur des projets orientés données. Excellentes capacités de communication et de coordination. Capacité à traduire les besoins métier en exigences techniques. Optionnelles : Expérience dans l’industrie pharmaceutique (domaine commercial idéalement). Connaissance de Snowflake AI Cortex. Excellentes compétences Excel. Expérience sur des plateformes data à grande échelle ou des couches sémantiques Expérience nécessaire : 3 années minimum d’expérience sur la fonction Méthodologie : Agile Langues : Anglais (Courant - Niveau C1) Localisation : Full Remote mais rattachée aux locaux O situés à Lyon Possibilité d’interventions hors site Client : OUI (100% - Réalisable en France Métropolitaine uniquement) Astreintes / interventions HNO : NON Déplacements sur d'autres site client en France : NON Autre matériel requis : NON
Freelance

Mission freelance
Ingénieur ML Platform Senior

Cherry Pick
Publiée le
GPU
Machine Learning
Python

12 mois
610 €
Paris, France
En tant qu' Ingénieur ML au sein de l'équipe ML Platform, vous mettrez à profit votre solide expérience en industrialisation , votre maîtrise de Python et votre expertise pratique de l'entraînement de modèles. Votre rôle sera de faciliter le travail quotidien du ML Lab sur (leur "neocloud" de choix) et d'assurer la liaison avec l'outillage MLOps (principalement sur AWS ), en étroite collaboration avec un ingénieur DevOps dédié. Responsabilités Clés Favoriser l'expérimentation rapide : Créer et maintenir les outils permettant aux chercheurs d'itérer rapidement sur de nouvelles approches ML. Gérer des expériences de recherche à grande échelle : Concevoir et superviser des cycles d'entraînement massifs sur l'infrastructure , en implémentant le suivi des expériences ( experiment tracking ) et la reproductibilité. Faciliter la collaboration externe : Permettre une collaboration sécurisée avec des partenaires académiques et l'accès aux ressources open-source tout en respectant les protocoles de sécurité. Optimisation des performances et des ressources : Profiler et optimiser les pipelines d'entraînement ; gérer efficacement les ressources GPU. Développement d'outils de recherche : Développer des bibliothèques et utilitaires spécifiques aux domaines du Lab (nouvelles architectures, techniques d'entraînement, frameworks d'évaluation). Transfert de connaissances : Partager les enseignements issus de la recherche expérimentale avec l'ensemble de l'équipe ML Platform et les chercheurs
CDI

Offre d'emploi
Data scientist H/F

█ █ █ █ █ █ █
Publiée le
Python
Scikit-learn
Tensorflow

Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Architecte Réseaux/Sécurité

OBJECTWARE
Publiée le
Check Point
Cisco
F5

1 an
Île-de-France, France
Contexte : L'architecte technique réseaux sécurité est en charge de définir les solutions techniques en réponse aux besoins métiers, il rédige la documentation HLD, qui permettra à l'équipe de mise en oeuvre de réaliser l'intégration. Il assure le suivi de la relation fournisseur, pour aider à l'amélioration des solutions et réaliser la veille technologique, il définit et communique le cycle de vie des solutions de références, nécessaire à l'exercice de gestion de l'obsolescence. Il est en support des équipes de mise en oeuvre, avec qui il valide en lab les évolutions matérielles et logicielles pour mettre à jour le catalogue des produits de référence. Missions : - Relation technique avec les fournisseurs pour le suivi de la prestation d'accompagnement et pour assurer la veille technologique - Rôle de product Owner (plan de continuité, cycle de vie, catalogue, …) - Rédaction des HLD projets, - Qualification des nouveaux matériels et logiciels en lab en coopération avec les équipes de mise en oeuvre Technologie : Architecture LAN DC : VXLAN/EVPN Architecture LAN DC : Arista Architecture LAN DC : Cisco ; Switching ; Routing OSPF ; BGP ; Loadbalancing : F5 ; Fortinet ; Checkpoint ;Firewall : Palo Alto
CDI

Offre d'emploi
DATA SCIENTIST - Télécom - Lyon (H/F)

EASY PARTNER
Publiée le
Apache Airflow
Keras
Python

40k-54k €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste Rejoignez une entreprise innovante appartenant à un groupe de renom œuvrant dans le domaine des télécommunications. Avec des équipes basées à Lyon, notre entreprise s'attache à transformer l'expérience client à travers le développement de solutions IT innovantes pour divers opérateurs télécoms à travers le monde. Actuellement, nous sommes à la recherche d'un Data Scientist passionné pour rejoindre une équipe dynamique et motivée, composée de 9 personnes, dédiée à l'optimisation des réseaux radio du groupe. Dans le cadre de notre croissance et de l'évolution de nos projets, nous lançons ce recrutement pour soutenir nos efforts en intelligence artificielle et en data science. Missions Missions principales - Développer et mettre en œuvre des solutions IA pour résoudre des problématiques complexes dans le secteur des télécoms, incluant l'optimisation radio et le monitoring automatique. - Contribuer à l'amélioration de l'efficacité énergétique du réseau et à la création de chatbots business-orientés. Missions annexes - Collaborer avec les commanditaires pour définir les cas d’usage et s’assurer de la pertinence des applications proposées. - Coordonner les initiatives de Crédit Impôt Recherche et encadrer un alternant en Data Science. - Participer activement à l'intégration de modèles de données dans l'environnement de production et maintenir une veille technologique rigoureuse. Stack technique Compétences à maîtriser - Python 3, SQL, TensorFlow, scikit-learn, Keras, Pandas, Matplotlib, Ploty, seaborn. - Data processing avec Jupyter Lab, Airflow, Superset. Environnement technique - Bases de données relationnelles et non-relationnelles, fichiers csv et parquet, outils de gestion de projet tels que JIRA et Confluence.
Freelance
CDI

Offre d'emploi
Ingénieur Virtualisation & Automatisation VMware / Ansible (H/F)

RIDCHA DATA
Publiée le
Ansible
DevOps
Python

1 an
Charenton-le-Pont, Île-de-France
Contexte de la mission Dans le cadre du développement et de l’optimisation des plateformes de virtualisation, vous intégrerez une équipe spécialisée Virtualisation & Automatisation. La mission vise à accompagner la croissance des activités métiers tout en garantissant la performance, la disponibilité et l’industrialisation des infrastructures. Vous interviendrez dans un environnement transverse en collaboration avec les équipes Réseaux, Stockage et DevOps. Missions principales Virtualisation & Infrastructure Déployer et maintenir les infrastructures VMware ESXi Administrer les environnements NSX, VSAN et Horizon View Participer aux projets d’évolution des infrastructures virtualisées Assurer le maintien en condition opérationnelle des plateformes Automatisation & Industrialisation Concevoir et mettre en œuvre des solutions d’automatisation Développer des scripts d’automatisation et d’exploitation Industrialiser les processus opérationnels Utiliser les API et méthodologies DevOps pour optimiser les opérations Exploitation & Support Traiter les incidents et demandes techniques Réaliser les diagnostics et résoudre les problèmes complexes Assurer le capacity planning des infrastructures Garantir la disponibilité, la sécurité et la qualité des systèmes Architecture & Expertise Participer aux études techniques et aux évolutions d’infrastructure Réaliser les designs techniques et les paramétrages avancés Définir les standards, méthodes et bonnes pratiques Assurer une veille technologique continue Coordination & Conseil Collaborer avec les équipes Réseaux, Stockage et DevOps Assurer un rôle de conseil et d’expertise technique Participer à la qualification des solutions et infrastructures Compétences recherchées Compétences impératives Ansible – Niveau Expert VMware vSphere / ESXi – Niveau Expert Très bonnes compétences en scripting et automatisation Expertise API & méthodologies DevOps Compétences importantes Python – Niveau confirmé Automatisation AAP2 Gestion des environnements virtualisés complexes Compétences appréciées NSX VSAN Horizon View PureStorage iSCSI / SAN
CDI

Offre d'emploi
Chargé des Systèmes d'Information & Data

FED SAS
Publiée le

50k-60k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris 11ème, un Chargé des Systèmes d'Information & Data H/F dans le cadre d'un CDI. Rattaché(e) à la Direction Financière, le/la Chargé(e) SI & Data est le référent technique de l'entreprise sur l'ensemble du périmètre informatique. Véritable profil couteau-suisse, il/elle intervient aussi bien sur la gestion de la donnée que sur l'architecture des logiciels métiers, l'infrastructure réseau du siège et la gestion du parc matériel. Il/elle est l'interlocuteur(trice) de confiance des équipes internes pour tout sujet lié aux systèmes d'information. Missions principales Data * Collecter, structurer et fiabiliser les données issues des différents systèmes (ventes, opérations, RH, finance) * Mettre en place et maintenir les outils de reporting et de visualisation de données (dashboards, tableaux de bord) * Accompagner les équipes métiers dans l'exploitation et l'analyse de leurs données * Garantir la qualité, la sécurité et la conformité des données (RGPD) * Participer à la définition et au déploiement de la stratégie data de l'entreprise Logiciels & architecture SI * Administrer et maintenir les logiciels métiers du siège (ERP, CRM, outils de caisse, plateformes SaaS) * Gérer les intégrations entre les différentes applications et assurer la cohérence de l'architecture SI * Piloter les projets de déploiement ou de migration logicielle : cahier des charges, suivi prestataires, recette * Assurer le support de niveau 2/3 auprès des utilisateurs internes * Maintenir la documentation technique et fonctionnelle des systèmes en place Infrastructure réseau * Administrer et superviser l'infrastructure réseau du siège (LAN, Wi-Fi, VPN, pare-feu) * Assurer la disponibilité, la performance et la sécurité des connexions et des accès * Gérer les accès utilisateurs, les droits et les politiques de sécurité informatique * Coordonner les interventions des prestataires télécoms et réseaux * Contribuer à l'extension du réseau IT vers les sites et points de vente du groupe Parc matériel * Gérer le parc informatique : ordinateurs, serveurs, terminaux de caisse, tablettes, périphériques * Assurer les achats, la configuration, le déploiement et le renouvellement du matériel * Mettre en place et suivre l'inventaire du parc et les contrats de maintenance associés * Diagnostiquer les pannes et coordonner les interventions de maintenance ou de remplacement
Freelance

Mission freelance
Lead data engineer Databricks

LeHibou
Publiée le
Amazon S3
Collibra
Databricks

36 mois
650-800 €
Colombes, Île-de-France
Dans le cadre d’un programme de replatforming B2C, une organisation internationale construit une Data Platform centralisée à l’échelle mondiale, aujourd’hui fragmentée. L’objectif est de mettre en place une plateforme cloud-native, data-centric et scalable, au service des équipes data de plusieurs géographies, notamment la France, la Belgique et l’Australie. Le Core Model du programme repose sur un modèle de données unifié couvrant notamment les données clients, contrats et facturation. Le Lead Data Engineer intervient comme référent technique de la data platform, avec une responsabilité complète sur l’architecture, le delivery et la qualité des données. Stack technique • Data Platform : Databricks (lakehouse), Amazon S3, Amazon Managed Apache Flink • Gouvernance des données : Unity Catalogue, Collibra • Visualisation : Power BI • Cloud : AWS • Streaming : Confluent Kafka • Langages : Python, SQL • IA & coding : GitHub Copilot, Claude Code, outils LLM • Collaboration : Jira, Confluence, SonarQube Missions principales Stratégie & Architecture Data • Définir l’architecture de la data platform greenfield (lakehouse, zones bronze/silver/gold, data contracts) • Co-construire le Core Data Model commun aux différentes géographies tout en intégrant les spécificités locales • Mettre en place la gouvernance des données, la qualité et l’observabilité • Répondre aux besoins analytiques et fonctionnels des équipes métier via une approche de type catalogue as a service Leadership & Delivery • Être le référent technique data du programme • Choisir les partenaires et structurer une feature team de 5 à 6 personnes • Assurer la responsabilité end-to-end des pipelines, de l’ingestion à la restitution • Gérer le monitoring, la performance et l’optimisation FinOps des workloads data • Mettre en place les pratiques DataOps : automatisation des tests, CI/CD data, infrastructure as code IA & Vélocité • Exploiter GitHub Copilot, Claude Code ou équivalents pour accélérer le développement des pipelines et modèles • Intégrer des cas d’usage IA/ML dans la data platform, incluant data science, feature store et jeux de données prêts pour les LLM • Automatiser la génération de code, les tests de qualité des données et la documentation • Conserver la maîtrise technique tout en augmentant la vélocité grâce à l’IA
Freelance

Mission freelance
Tech Lead Data (H/F)

Freelance.com
Publiée le
Agent IA
Apache Kafka
Business Object

3 mois
400-580 €
Maisons-Alfort, Île-de-France
Dans le cadre d’un programme stratégique au sein d’une direction informatique, nous recherchons un Tech Lead Data expérimenté pour intervenir sur un périmètre lié à la gestion de solutions data critiques. Intégré à une équipe Agile organisée en train SAFe, vous participerez à la conception, au développement et à la maintenance d’applications du système d’information. Vous interviendrez en tant que référent technique de l’équipe data, avec un rôle clé dans l’accompagnement des développeurs et l’amélioration continue des pratiques. Vos principales responsabilités : Assurer le leadership technique de l’équipe data Promouvoir et mettre en œuvre de nouvelles pratiques (architecture événementielle, APIsation, modernisation technologique) Participer activement aux choix d’architecture et aux décisions techniques Collaborer avec les autres équipes data pour assurer la cohérence globale Être force de proposition sur les outils et innovations du marché, notamment autour de la data et de l’IA
CDI

Offre d'emploi
Data Analyst (H/F)

█ █ █ █ █ █ █
Publiée le
Big Data
Data management
SQL

45k-65k €
Nogent-sur-Marne, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer Databricks confirmé (H/F)

PREREQUIS
Publiée le
Databricks

1 an
Issy-les-Moulineaux, Île-de-France
Nous recherchons pour l'un de nos clients un Data Engineer Databricks confirmé (H/F) -Contexte de la mission Dans le cadre de la stratégie de convergence vers une intégration cluster pour le transport de données, l’équipe Finance souhaite rationaliser ses intégrations . L’objectif est de centraliser et fiabiliser les flux de données autour de la plateforme Databricks , afin de mieux industrialiser les échanges et de répondre aux besoins métier Finance. La mission se déroulera au sein du département Finance Integration . -Objectifs de la mission Le/la Data Engineer aura pour mission de : Intégrer les données dans le data engine Databricks Concevoir et industrialiser les traitements de données financières brutes Calculer les KPI demandés par le business Assurer l’exposition des données vers les outils et systèmes consommateurs, notamment : -Power Bi -Oracle Contribuer à la fiabilisation , à la standardisation et à la maintenabilité des flux de données
6041 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous