Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 434 résultats.
CDI
Freelance

Offre d'emploi
Data Ingénieur

Les Filles et les Garçons de la Tech
Publiée le
AWS Cloud
IA
Kubernetes

6 mois
40k-51k €
450-600 €
Paris, France
Le ou la Data Ingénieur·e IA conçoit, met en place et opère les pipelines de données qui alimentent les cas d’usage d’intelligence artificielle (machine learning, LLM, analytics avancée). Le poste vise à garantir la disponibilité, la qualité, la traçabilité et la performance des données de bout en bout, depuis les sources (SI, APIs, fichiers, logs) jusqu’aux environnements d’entraînement et de production. En lien étroit avec les équipes Data Science, Produit, DevOps et Sécurité, la personne contribue à industrialiser les flux et à fiabiliser l’écosystème data. Livrables Pipelines de données documentés et automatisés, avec contrôles de qualité (validation, déduplication, gestion des valeurs manquantes) et mécanismes de reprise sur incident. Jeux de données prêts pour l’IA (datasets d’entraînement/validation, tables de features, embeddings si nécessaire) et interfaces d’accès stables pour les équipes consommatrices. Tableaux de bord de supervision (fraîcheur, volumes, erreurs, coûts), documentation opérationnelle (runbooks) et contribution aux standards (naming, conventions, modèles) de la plateforme.
CDI

Offre d'emploi
Customer Technology Advisor (Product Owner Technique) (H/F)

█ █ █ █ █ █ █
Publiée le
Ansible
Big Data
CI/CD

55k-70k €
Neuilly-sur-Seine, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
101058/Data Scientist Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT)

WorldWide People
Publiée le
Data science

9 mois
400-450 €
Nantes, Pays de la Loire
Data Scientist IA GEN, Python, Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT). - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Notre client attend de la candidature que vous proposerez : - qu'elle soit autonome sur l'IA Gen (prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails) - qu'elle dispose d'une expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur) Enfin qu'elle ait : - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch
CDI

Offre d'emploi
Lead data engineer H/F

HAYS France
Publiée le

45k-50k €
Lyon, Auvergne-Rhône-Alpes
Missions : Développer de nouveaux pipelines et transformations de données à partir de spécifications fonctionnelles Créer, maintenir et faire évoluer des rapports et tableaux de bord Power BI Optimiser les performances des traitements et des modèles de données Analyser et corriger les incidents techniques sur les flux de données et les tableaux de bord Garantir des délais de résolution adaptés, notamment pour les incidents bloquants liés aux données clients Assurer le suivi des tickets de bugs et produire un reporting clair à destination du management Animer les revues de code hebdomadaires pour l'ensemble de l'équipe data Accompagner techniquement et méthodologiquement les développeurs plus juniors Être force de proposition et interlocuteur technique de référence pour l'équipe Reprendre temporairement le périmètre d'un autre développeur en cas d'incident, d'urgence ou d'évolution critique Garantir la continuité opérationnelle du RUN data
CDI
Freelance

Offre d'emploi
Senior Technical Business Analyst – Market Data to Data & Analytics Platform Migration (Trading) – Zurich Area / Remote

Avanda
Publiée le

Zurich, Suisse
Avanda is a Swiss professional services consultancy. We are currently looking for a Senior Technical Business Analyst to join our international team at our global end client in the Zurich area. This is a long term opportunity (project goes into 2028). Remote work accepted with once every 4-6 weeks onsite. THE ROLE You will join a multi-year Market Data to Data & Analytics Platform Migration programme in the Trading sector. As the Technical Business Analyst, you will support the Project Manager and workstream leads on the technical and business-related topics across the migration, with a focus on reconciliation, sign-off, requirements engineering, and unblocking the technical teams when business or risk context is needed. YOUR RESPONSIBILITIES Support reconciliation topics between legacy market data sources and the new platform, and bring them to sign-off with business and risk stakeholders Gather and clarify requirements from business and risk users, and translate them for the federated technical teams Support business users on data issues and act as the bridge to the technical teams Unblock technical teams on open business or risk questions Support the PM on technical follow-ups, open item tracking, and stakeholder clarifications. YOUR PROFILE Business Analyst background with solid technical understanding (data platforms, ingestion, APIs) Experience in Market Data, Risk, or Trading environments Comfortable engaging both business / risk users and development teams Able to work independently on requirements engineering and reconciliation / sign-off topics Fluent English (mandatory); German is a plus If this sounds like your next challenge and you would like to know more please send us your updated cv and we will call you shortly to discuss it in more details.
Freelance
CDI

Offre d'emploi
Data engineer

Gentis Recruitment SAS
Publiée le
ETL (Extract-transform-load)
microsoft
Modélisation

6 mois
40k-64k €
550-800 €
Luxembourg
Data Engineer orienté gestion de la donnée , capable de prendre en charge la donnée de bout en bout : de son arrivée jusqu’à son exploitation, en garantissant sa qualité, sa cohérence et sa performance. Le poste s’inscrit dans un environnement majoritairement Microsoft , avec des enjeux forts autour de la structuration, de l’analyse et de la modélisation des données . Missions principales Gérer la donnée tout au long de son cycle de vie (ingestion, transformation, stockage, exploitation). Concevoir, maintenir et optimiser des data pipelines fiables et performants. Organiser et structurer les données via des modèles de données clairs et adaptés aux usages métier. Participer à des activités de data analysis pour assurer la qualité et la cohérence des données. Automatiser les traitements et flux de données via du scripting Python . Collaborer étroitement avec les équipes techniques et métiers , dans une logique transverse, afin de comprendre et répondre aux besoins liés à la donnée. Veiller aux bonnes pratiques de gouvernance, de sécurité et de performance des données. Environnement technique Écosystème Microsoft (bases de données, outils data, cloud) Python (scripting, automatisation, traitement de données) Data pipelines / ETL – ELT Modélisation de données SQL Une connaissance de l’industrie des fonds / de la gestion d’actifs constitue un réel avantage.
Freelance

Mission freelance
DATA ARCHITECT (Expert)

HAYS France
Publiée le
Collibra
Data governance
KPI

3 ans
100-600 £GB
Lille, Hauts-de-France
ATTENTION LE POSTE EST UN POSTE DE DATA ARCHITECT Nous cherchons un data architect pour intégrer la plateforme HRDP (Ressources Humaines): Data architecture * Conception de modèles conceptuels de données par contexte métier. * Identification des évènements métier par contexte métier. * Définition et formalisation des Business Terms, Business Attributes et Business Event dans Collibra. * Définition des Indicateurs Clés de Performance par contexte métier. * Définition des règles de qualité des Business Terms. * Analyse de la conformité des API avec la data architecture. * Analyse de la conformité des Data Set avec la data architecture. * Réalisation du data lineage. * Rédaction de dossier d'architecture data répondant aux demandes business exprimées en quarter plan * Participation à la data governance de la plateforme
CDD
CDI
Freelance

Offre d'emploi
DATA OPS DATAIKU DSS

R&S TELECOM
Publiée le
AWS Cloud
Azure
CI/CD

6 mois
Bordeaux, Nouvelle-Aquitaine
Objectifs de la mission Industrialiser les projets de Machine Learning développés sous Dataiku DSS Mettre en place une chaîne MLOps robuste, sécurisée et maintenable Garantir la fiabilité, la performance et la gouvernance des flux de données alimentant Dataiku Assurer le bon passage du POC à la production, puis l’exploitation dans le temps Contribuer à la diffusion des bonnes pratiques MLOps & DataOps au sein des équipes Data Périmètre d’intervention Projets Data Science & IA développés sous Dataiku DSS Chaînes MLOps (entraînement, déploiement, supervision des modèles) Connexion de Dataiku aux sources de données de l’entreprise Environnements DEV / TEST / PROD Livrables attendus Pipelines MLOps Dataiku industrialisés et documentés Modèles ML déployés et supervisés en production Connecteurs Dataiku vers les sources de données opérationnels Documentation d’exploitation MLOps & DataOps Recommandations de standardisation et d’amélioration continue Interactions Rattachement : Responsable de domaine SI Dataplatform et BI avec un détachement opérationnel dans l’équipe Data Science le temps du projet Partenaires clés : équipes IT (projets, devs, MCO), directions métiers (commerce, marketing, supply chain, finance), conformité et sécurité. Data Scientists, Data Engineers, Architectes Data / Cloud, équipes de la direction technique : Infrastructures, Production, Sécurité & Exploitation Compétences Dataiku DSS – niveau avancé (MLOps & DataOps) Expérience confirmée en industrialisation de modèles ML Python, SQL CI/CD, Git Très bonne compréhension des architectures Data Environnements Cloud (AWS / GCP / Azure) Sensibilité forte aux enjeux sécurité, RUN et exploitation
Freelance

Mission freelance
Data Engineer Senior F/H

SMARTPOINT
Publiée le
AWS Cloud
CI/CD
DevOps

12 mois
480-500 €
Île-de-France, France
Mission principale Assurer le développement, la mise en œuvre opérationnelle et la maintenance des pipelines et services de données au sein de la plateforme Data. Services, en garantissant leur fiabilité, performance et sécurité. Tâches & activités Concevoir et développer des pipelines de données (ETL) notamment avec Kestra Manipuler, transformer et optimiser les données (SQL / NoSQL) Assurer la maintenance en conditions opérationnelles (MCO) des pipelines et services data Participer à la sécurisation des migrations fonctionnelles et techniques Contribuer à l’amélioration continue des processus data (qualité, performance, monitoring) Collaborer avec les équipes techniques et métiers pour cadrer et implémenter les besoins Livrables & résultats attendus Développement de 10 à 14 pipelines / algorithmes par an Maintien en conditions opérationnelles des solutions (suivi quotidien) Production de rapports d’activité et comptes rendus d’intervention Garantie de la qualité, de la fiabilité et de la performance des flux de données Compétences techniques Excellente maîtrise de SQL et des outils ETL (Kestra) Bonne connaissance des environnements Cloud AWS Culture DevOps / CI-CD (industrialisation, automatisation) Compétences en modélisation de données (UML est un plus) Connaissance des bases NoSQL
Alternance

Offre d'alternance
Data scientist - Backend E-commerce (H/F) - - Alternance

█ █ █ █ █ █ █
Publiée le
Apache Spark
CI/CD
Docker

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer H/F

HAYS France
Publiée le
Data Lake
Microsoft Analysis Services (SSAS)
Microsoft Power BI

1 an
Île-de-France, France
Contexte de la mission Dans le cadre du programme de Digital and Data Transformation , a la charge de la conception, de la livraison et du cycle de vie des data products supportant les initiatives stratégiques data du Groupe. Le Data Engineer interviendra sur la construction et l’évolution des plateformes et pipelines data , la transformation de données brutes en données à forte valeur ajoutée, ainsi que l’amélioration continue des actifs data, en collaboration avec des équipes internationales. Prestation Attendue Data Engineering & Delivery • Conception et mise en œuvre des pipelines ETL / ELT • Développement de jobs ETL réutilisables • Gestion des chargements Delta / Full / Historique • Debugging et résolution d’incidents en production • Mise en œuvre des bonnes pratiques de développement à la mise en production Collaboration & Méthodologie • Travail en étroite collaboration avec le Product Owner, les équipes data et plateforme • Contribution aux phases de Data Scoping / Discovery • Méthodologie Agile • Interaction avec des équipes distribuées (multi‑pays) Livrables • Composants data développés et déployés (code source) • Documentation technique et fonctionnelle • Modèle de données documenté • Rapports d’audit et de sanity check • Rapports de tests d’acceptation • Transfert de compétences et support aux équipes
Freelance

Mission freelance
249593/Product Owner DATA SUR DES DONNEES RH - Expertise dans la création de Datalake RH

WorldWide People
Publiée le
Data Lake

9 mois
Saint-Denis, Île-de-France
PO DATA SUR DES DONNEES RH - Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP • Product Owner Data dans le cadre du projet DataSmart RH Les données RH sont actuellement exploitées manuellement via Excel, ce qui engendre un risque d'incohérences et une sécurité limitée. Le besoin est de disposer d'une base unique, automatisée, sécurisée et actualisée quotidiennement. Nature de la prestation à effectuer : Il/Elle adressera les actions suivantes : - Designer les alimentations des données (fréquence, groupes de données, mode delta et/ou full, stockage et data préparation) - Réaliser les spécifications détaillées des besoins d’extraction vis-à-vis de ADP et SuccessFactors afin de répondre aux besoins métier et de respecter ceux de l’environnement Data de Generali (pour la création du Data Domain) - Prendre en compte les autres systèmes providers de données (bases mortes et autre système opérationnel de formations, WeLearn/Cornerstone) - Être force de proposition pour la gestion des habilitations sur les données - Participer à la recette des extractions et des imports dans le Data Domain Il/Elle sera sous la responsabilité du manager de l'équipe Pilotage SIRH et travaillera avec l’ensemble des parties-prenantes : - L’équipe métier : Pilotage RH - L’équipe AMOA Pilotage SIRH - L’équipe IT RH - L’équipe IT DATA - Les éditeurs 2. Management de projets product owner Sénior PRO_OWN-3 Référent de la vision métier au sein des équipes agiles : - Collabore avec les métiers pour élaborer la vision du produit - Partage cette vision avec les équipes de développement agile - Mène une réflexion stratégique préparatoire des versions à venir Priorisation par la valeur du contenu métier : - Identifie les fonctionnalités et exigences attendues - Priorise toutes les users stories au sein du Product Backlog - Maintien le product backlog et cherche en permanence à maximiser la valeur métier pour les utilisateurs Transmission aux équipes agiles pour assurer la compréhension du besoin métier : - Découpe chaque fonctionnalité en user story pouvant être implantée en une seule itération - Définit les critères d'acceptation indispensables à sa bonne compréhension par les équipes agiles - Intègre et suit la prise en compte des exigences non fonctionnelles (ENF : accessibilité, sécurité IT, RGPD, RSE...) dès l'étape de conception - Contribue aux réunions agiles avec les équipes de développement et le Scrum Master Recette des éléments métiers produits par l'équipe agile : - Réalise ou organise le déroulement des tests utilisateurs - Récolte les feedbacks des utilisateurs pour les équipes de développement Objectifs et livrables Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP • Compétences demandées Compétences Niveau de compétence donnée rh : GA / PAIE / GT / FORMATION Confirmé standard adp Confirmé Power BI Confirmé datalake rh Confirmé
CDI

Offre d'emploi
Administrateur Systèmes & Réseaux Linux H/F

ADSearch
Publiée le

40k-50k €
Biot, Provence-Alpes-Côte d'Azur
[En bref] Administrateur Systèmes & Réseaux Linux H/F – CDI – Sophia Antipolis – 35/45K€ – Editeur de logiciel Je recrute pour une entreprise locale à dimension internationale, spécialisée dans le développement de solutions technologiques avancées. Présente sur (presque) tous les continents, elle évolue dans un environnement ultra concurrentiel, où l'innovation n'est pas une option mais une nécessité. TON POSTE Au sein d’une équipe IT à taille humaine (10 collègues dont la moitié sur l'infrastructure), tu interviens sur l’évolution, la mise en place et la maintenance des infrastructures systèmes et réseaux. Tes missions principales : - Assurer le support utilisateurs N1/N2 auprès des équipes internes (environnement multi-sites), - Gérer le cycle de vie des comptes et accès aux outils internes, - Déployer, maintenir et faire évoluer les infrastructures systèmes et réseaux, - Participer à la mise en œuvre des politiques de sécurité et à la gestion des accès, - Administrer les environnements serveurs Linux et Windows, - Superviser les services via des outils de monitoring et intervenir en cas d’incident, - Gérer les sauvegardes, la continuité de service et la protection des données, - Automatiser certaines tâches via scripting (Bash, Python, PowerShell), - Contribuer à la documentation technique (en anglais) et aux bonnes pratiques, - Participer aux projets d’évolution (virtualisation, conteneurisation, infra as code…).
CDI
Freelance

Offre d'emploi
Data Scientist

VISIAN
Publiée le
Dataiku
Deep Learning
Elasticsearch

1 an
Paris, France
Missions Conception et développement de services Data et IA pour la connaissance clients et la performance business Pilotage de la performance commerciale Détection d’insights, recommandations, prédictions Détails techniques Machine Learning : IA générative et agentique : techniques de mises en œuvre de LLMs, architectures RAG et agentiques, … Techniques NLP / NLU : embeddings, transformers, BERT, … Machine learning : régression, classification, clustering, détection d’anomalies, moteur de recommandations, séries temporelles Deep learning (architectures, transfert learning, fine tuning, …) IA responsable et de confiance, IA explicable, maîtrise des biais Maîtrise de Python pour la data science (sklearn, pytorch, keras, LangChain, LangGraph, …) Bases vectorielles et d’indexation texte et embeddings : Elasticsearch, Faiss, … Expérience avec la plateforme Dataiku Outils informatiques Langage : Python Prototypage : Gradio, Streamlit Outil de versioning : git Cloud : AWS Bedrock Expérience avec une architecture On prem serait un plus Curiosité intellectuelle, autonomie et réactivité Capacité de communication : capacité à analyser et synthétiser, pédagogie Force de proposition : capacité à proposer des solutions innovantes
CDI

Offre d'emploi
Commercial Export BtoB - Marché Data Capture F/H - Commercial (H/F)

█ █ █ █ █ █ █
Publiée le

Annecy, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Data Engineer Confirmé / Senior

CAT-AMANIA
Publiée le
Apache Kafka
Apache Spark
Batch

1 an
Rennes, Bretagne
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer confirmé / senior : Participer à la définition de l'architecture Data Concevoir, Affiner et Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code
5434 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous