Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 641 résultats.
Freelance

Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS

PROPULSE IT
Publiée le
Azure
BI
DevOps

24 mois
325-650 €
La Défense, Île-de-France
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
Freelance

Mission freelance
Data Analyst Expert

Codezys
Publiée le

6 mois
300-450 €
Lyon, Auvergne-Rhône-Alpes
Analyser, structurer et valoriser les données prescriptives du SIP afin de transformer des données issues de documents en référentiels exploitables, au service de la performance et de la décision métier. Objectifs et livrables Responsabilités clés Mettre en qualité et transformer les données prescriptives Réaliser des analyses statistiques descriptives Identifier et structurer les référentiels métier Produire des tableaux de bord et visualisations (Power BI) Restituer les résultats aux commanditaires métiers Travailler en collaboration étroite avec les équipes produit et data Environnement technique Google Cloud Platform (GCP) Outils data et BI Power BI Conformité aux principes data et SI Vision 2035 Compétences attendues Solide expérience en analyse de données Capacité à passer du document à la donnée structurée Bonne compréhension des enjeux métiers Capacité de restitution et de pédagogie Orientation valeur et usage
Freelance

Mission freelance
POT8952 - Un Data Scientist Sénior sur Massy

Almatek
Publiée le
SQL

6 mois
100-390 €
Massy, Île-de-France
Almatek recherche pour l'un de ses clients,Un Data Scientist Sénior sur Massy. DESCRIPTION DE LA MISSION. Au sein du pôle Data Science Customer, vous rejoignez une feature team dédiée à l'un des piliers stratégiques de l’entreprise :le moteur de recherche de produit. Votre mission est de transformer l'intention d'achat de millions de clients en une expérience fluide, pertinente et performante. Vous serez le référent technique sur l'évolution de notre moteur de recherche, en passant d'une approche textuelle classique à une expérience de recherche sémantique et personnalisée. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. - En intervenant à toutes les étapes des projets, vous pourrez : - Stratégie Search : Collaborer avec les Product Managers pour définir la roadmap de pertinence (recherche textuelle, sémantique, hybride). - Architecture Vectorielle : Concevoir et déployer des solutions de Vector Search (Embeddings, ANN) pour capturer l'intention client au-delà des mots-clés. - Optimisation du Ranking : Implémenter et itérer sur des modèles de Learning to Rank (LTR) et de Reranking pour arbitrer entre pertinence métier, mix marge et préférences utilisateur. -Évaluation de la pertinence : Mettre en place des protocoles d'A/B testing rigoureux et des frameworks d'évaluation (nDCG, MRR, Click-through rate). -Expertise Elasticsearch : Optimiser les configurations, les analyseurs et les requêtes complexes pour garantir des performances temps réel à grande échelle. -Mentorat : Guider et élever le niveau technique des data scientists juniors sur les thématiques de NLP et de Search.? Compétences techniques clés : - Moteurs de recherche : Maîtrise avancée d'Elasticsearch, incluant le tuning de pertinence et la gestion des index. - Recherche Vectorielle : Expérience concrète dans l'utilisation de bases de données vectorielles et de modèles d'embedding. - Reranking : Solide expérience dans la conception de modèles de reranking (XGBoost/LightGBM pour le LTR, ou approches Deep Learning). - Stack Data : Maîtrise de Python, SQL et de l'écosystème GCP (BigQuery, Vertex AI). - Les petits plus - Expérience sur des problématiques de Personalized Search (intégration des signaux utilisateurs temps réel). - Contributions à des projets Open Source dans le domaine du Search ou du NLP. - Connaissance des problématiques de recherche multilingue ou de traitement des synonymes par IA. - Notre environnement technique - Python, SQL, Terraform, Docker, Gitlab, Jenkins, GCP (Cloud Composer / Airflow, Cloudrun, BigQuery, Cloud Batch, Kubernetes Engine, Vertex AI, Cloud Storage) Votre séniorité vous permet de naviguer entre la rigueur scientifique et les impératifs business du e-commerce. Vous savez vulgariser des concepts de "Neural Search" auprès d'interlocuteurs non-techniques tout en garantissant une qualité de code (Clean Code, CI/CD) irréprochable.
CDI

Offre d'emploi
Développeur Mainframe Cobol H/F

OBJECTWARE
Publiée le
COBOL

35k-45k €
Le Mans, Pays de la Loire
Missions - Analyse des besoins métiers et des spécifications fonctionnelles - Conception, développement et maintenance d'applications mainframe - Développements en COBOL (batch et/ou transactionnel) - Participation aux phases de tests unitaires et d'intégration - Correction des anomalies et gestion des incidents de production - Optimisation et fiabilisation des traitements existants - Rédaction et mise à jour de la documentation technique - Collaboration avec les équipes MOA, production et exploitation Environnement technique - Mainframe IBM z/OS - COBOL, JCL - DB2 - CICS - IMS (selon contexte) - Outils de scheduling et de supervision - Méthodologies : ITIL, Agile (selon projet)
Freelance

Mission freelance
Analytics Engineer – Data & BI

SKILLWISE
Publiée le
Azure Data Factory
Azure DevOps
Databricks

3 mois
100-600 €
Paris, France
Nous recherchons un Analytics Engineer pour rejoindre une équipe dédiée à la centralisation et à la fiabilisation des données dans un environnement data-driven. Votre mission consistera à concevoir et maintenir des pipelines de données (Azure Data Factory, Databricks, Spark SQL) pour alimenter un datamart utilisé par les métiers via des outils self-BI (Power BI, BusinessObjects). Vos missions principales : Concevoir et développer des pipelines d’ingestion via Azure Data Factory , en assurant leur robustesse et leur évolutivité. Transformer et optimiser les données en utilisant Spark SQL (Databricks) pour répondre aux besoins métiers. Maintenir et améliorer les indicateurs de qualité des données , en garantissant leur cohérence et leur fiabilité. Implémenter des tests unitaires pour sécuriser les pipelines et assurer la stabilité des solutions. Collaborer avec les équipes techniques et métiers pour affiner les besoins et proposer des améliorations continues. Participer à la maintenance des outils de monitoring pour suivre les performances et la santé des applications. Ce poste est idéal pour un professionnel souhaitant impacter directement la stratégie data d’une organisation en pleine transformation digitale.
Freelance
CDI

Offre d'emploi
ingénieur IA / data scientist expérimenté

SKYLLIT
Publiée le
Agent IA
LangChain
LangGraph

1 an
Yvelines, France
Développeur d'agents GenAI – CCOE Data & AI Foundations Nous recherchons un ingénieur IA / data scientist expérimenté ayant conçu des agents de niveau production,avec sécurité, gestion des identités et observabilité. Ce poste est au cœur d'une initiative mondiale visant à accélérer l'industrialisation et la mise à l'échelle de l'IA générative au sein de l'organisation, et prenant en charge plus de 80 000 utilisateurs dans 65 pays. Au sein du Cloud Center of Excellence (CCOE) Data & AI Foundations, vous participerez au développement du SDK au sein de l'équipe de la plateforme GenAI pour le développement d'agents, afin de garantir la cohérence, la mise à l'échelle et la mise en production de tous les agents développés. Vous travaillerez en collaboration avec différentes équipes pour définir et faire évoluer le SDK, afin de le rendre utile, utilisable et adopté par les ingénieurs IA / data scientists. Le SDK est un produit essentiel pour de multiples environnements, des infrastructures sur site sécurisées aux déploiements cloud mondiaux. Ce poste est idéal pour un ingénieur en IA maîtrisant le fonctionnement des agents, la gestion des identités et la sécurité, et possédant une approche pragmatique du déploiement de produits et services de niveau production. Il/Elle sera désireux(se) de contribuer à façonner la conception, l'exploitation et la maintenance des agents d'IA à l'échelle de l'entreprise.
Freelance

Mission freelance
Data Engineer - Vannes

VISIAN
Publiée le
Apache Kafka
Apache Spark
Scala

3 ans
450-500 €
Vannes, Bretagne
Localisation : Bretagne Présence sur site minimum 3 jours par semaine Candidatures locales privilégiées Contexte Au sein d’un Chapitre Data intervenant en transverse dans l’entreprise, vous contribuez à la fabrication des cas d’usage Data portés par différentes Squads métiers. Vous évoluez dans un environnement collaboratif avec des interlocuteurs variés et participez activement aux échanges avec les membres du Chapitre présents sur d’autres sites en France. Missions Participer à la définition de l’architecture Data avec les architectes et les Squads Concevoir et développer des solutions de collecte, transformation et stockage de données issues de multiples sources Développer des pipelines Spark batch et Spark Streaming Mettre en place les tests unitaires et automatisés Déployer les solutions dans les différents environnements Assurer le suivi en production et la gestion des incidents Être force de proposition et contribuer à l’amélioration continue Environnement technique Spark (batch et streaming) indispensable SQL indispensable Scala apprécié Kafka apprécié Java et Shell appréciés Stack Hadoop Cloudera HDFS, Hive, HBase, Phoenix, MongoDB Git, Jenkins, Artifactory, XL Release ELK, Grafana Méthodologie Scrum Connaissances appréciées Outils de data visualisation tels que MicroStrategy, Power BI ou Tableau Profil recherché Expérience confirmée en Data Engineering Big Data Solide maîtrise de Spark dans un environnement Hadoop / Cloudera Capacité à évoluer en contexte transverse Soft skills attendues Autonomie Adaptabilité Bonne communication Capacité à challenger les besoins Prise de lead et force de proposition
Freelance

Mission freelance
AWS Senior Data Engineer / Data Architect (Event-Driven & Streaming)

Tenth Revolution Group
Publiée le
Amazon Redshift
AWS Cloud
AWS Glue

6 mois
400-650 €
Auvergne-Rhône-Alpes, France
Contexte Dans le cadre de la modernisation d’une plateforme data, vous concevez et mettez en œuvre des architectures cloud-native orientées événements sur AWS. L’objectif est de remplacer les traitements batch par des pipelines distribués, temps réel ou quasi temps réel, robustes et scalables. Missions principales Vous définissez des architectures data serverless event-driven, concevez des pipelines d’ingestion et de transformation distribués et mettez en place des systèmes découplés basés sur la messagerie en garantissant la scalabilité, la résilience et l’optimisation des coûts. Vous transformez les flux ETL batch en pipelines cloud-native, implémentez les patterns asynchrones (retry, DLQ, idempotence, gestion des timeouts) et industrialisez les déploiements via l’Infrastructure as Code et la CI/CD. Vous déployez le monitoring, le logging et le tracing afin de suivre la performance, la latence et la qualité des flux. Compétences clés Solide expérience des architectures event-driven et des systèmes distribués, de l’event sourcing et du message brokering, de la gestion du backpressure et de la latence ainsi que de la transformation distribuée et du traitement de gros volumes. Ce poste n’est pas orienté BI, reporting ou data engineering batch classique Positionnement Rôle transverse avec une forte interaction avec les équipes data, cloud, DevOps et applicatives, impliquant une responsabilité importante sur les choix techniques et les bonnes pratiques. Synthèse Profil d’architecte data AWS spécialisé en serverless et en architectures orientées événements, capable de concevoir des pipelines distribués scalables et résilients.
Freelance

Mission freelance
Data Engineer

STHREE SAS pour COMPUTER FUTURES
Publiée le
Apache Spark
Scala

6 mois
Paris, France
Le rôle du Data Engineer dans ce projet consistera à : • Concevoir et implémenter les composants/pipelines d’ingestion de données en scala spark (glue jobs, sans utilisation de solutions managées type Databricks) • Traiter et normaliser les données • Refactoriser des imports existants pour être compliant avec l'architecture medaillon (silver + gold layers) et notre modèle uniformisé/harmonisé à toutes les plateformes (aggrégateurs, market exchanges) • Appliquer/challenger les règles métier pour générer la couche gold tout en garantissant les performances, la scalabilité et les coûts cloud • Distribuer les données aux différents consommateurs/Métiers • Implémenter les règles de Data Quality (DataQuality framework : great expectation) et gérer le data calatog • Développer et améliorer les frameworks communs (monitoring, CI/CD, tests, performance, résilience, standards de développement, qualité du code) • Rédiger et maintenir la documentation technique des développements réalisés : schéma d'architecture, Infra, Flux, … • Garantir le respect des standards du Groupe en matière de qualité, sécurité, partage, usage et architecture des données • Participer au développement et à la maintenance du calculateur en Scala Spark avec l'objectif : - d'optimiser le temps de calculs, - d'optimiser les performances, - de garantir la scalabilité au regard d'un accroissement annuel important du volume des market operations, - de maîtriser et d'optimiser les coûts cloud. • Être force de proposition pour améliorer les processus et les performances des systèmes.
CDI

Offre d'emploi
Lead Data Scientist / ML & AI Engineer full remote F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Ocaml
Python
Pytorch

Bordeaux, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Lead Data Scientist / ML & AI Engineer full remote F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Ocaml
Python
Pytorch

Strasbourg, Grand Est

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Data Analyst Snowflake/Tableau/SQL

OBJECTWARE
Publiée le
Snowflake
Tableau Desktop

3 ans
40k-67k €
400-550 €
Île-de-France, France
Les attendus sont les suivants : - Migration de requêteurs sous TABLEAU ou directement en SQL pour certaines grosses requêtes. - Recette des requêtes migrées & analyse des écarts - Accompagnement potentiel des utilisateurs finaux dans l'utilisation de Tableau - Industrialisation / Automatisation des requêtes Prestations demandées Compétences requises : - +++ SNOWFLAKE - +++ SQL - +++ TABLEAU (bonnes connaissances techniques : modélisation de sources de données, modélisation de requêtes, optimisation) - ++ EXCEL - connaissances avancées (macro et potentiellement VBA) - + Connaissance de l'assurance - +++ Bonne capacité d'analyse d'écarts entre les requêteurs existants et les requêteurs migrés pour faciliter l'explication et la résolution de ces écarts - +++ Rigueur / documentation des sujets traités - +++ Proactivité, Autonomie
Freelance

Mission freelance
Data Engineer (H/F) - 63

Mindquest
Publiée le
Azure Data Factory
Azure Logic Apps
Databricks

6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Context Démarrage ASAP pour une mission de Data Engineer au sein d’une grande équipe data industrielle. La mission s’inscrit dans le remplacement d’un congé maternité, avec une forte probabilité de continuité sur une autre équipe à l’issue de cette période. Environnement structuré, déjà composé de plusieurs freelances intégrés. Mission Collecter, analyser et exploiter les données pertinentes afin d’améliorer le pilotage des activités et la création de valeur. Accompagner les équipes métier dans le développement, le déploiement et l’exploitation de solutions data. Être le référent data pour les sujets d’exposition et d’exploitation des données industrielles. Concevoir et maintenir des pipelines data robustes et optimisés. Produire des analyses et visualisations accessibles aux équipes métiers. Garantir la qualité, la gouvernance et l’éthique des données. Maintenir à jour le catalogue des datasets et la documentation associée. Participer aux tests, à la mise en production et à la formation des utilisateurs.
CDI

Offre d'emploi
Analyste Support Pilotage & Suivi du RUN (F/H)

Experis France
Publiée le

34k-50k €
Niort, Nouvelle-Aquitaine
Analyste Support Pilotage & Suivi du RUN (F/H) - Niort 📍 Localisation : Niort 📅 Démarrage : ASAP 🔎 Expérience : significative en pilotage et support au pilotage Au sein de la Direction des Systèmes d'Information et du Numérique, vous rejoignez l'équipe Observabilité & Suivi du RUN, rattachée à l'Exploitation. Cette équipe est responsable de la mise en place de l'observabilité autour des environnements de production et du support de niveau 2 au pilotage, afin de garantir la qualité des services délivrés et d'accompagner une démarche d'amélioration continue. Vos principales missions : 🔍 Assurer au quotidien le support du pilotage 7j/7 et 24h/24. Maîtriser le suivi des traitements et gérer les reprises en production en cas d'anomalie technique. Maintenir la maîtrise des supervisions en place. Gérer les incidents et participer aux cellules de crise. Réaliser le passage de consignes quotidien avec le pilotage. Suivre les changements et identifier les impacts éventuels sur la supervision et le pilotage. Contribuer aux mises en production Covéa et aux livraisons métiers. Participer aux chantiers transverses liés au suivi du RUN.
Freelance

Mission freelance
SAP S/4 Solution Architect Data – Programme Greenfield (H/F)

Signe +
Publiée le
Master Data Management (MDM)
SAP S/4HANA

1 an
700-890 €
Toulouse, Occitanie
Dans le cadre d’un programme stratégique de transformation en environnement greenfield sous SAP S/4HANA , nous recherchons un(e) SAP S/4 Solution Architect Data . Ce programme structurant vise la mise en place d’un Core Model S/4HANA avec une forte exigence sur la gouvernance, la qualité et la structuration des données. Vous interviendrez dans un environnement complexe, international et à forts enjeux métiers. 🎯 Missions🔹 Architecture & Stratégie Data Définir l’architecture Data dans le cadre du programme S/4HANA greenfield Concevoir le modèle cible de gouvernance des données Garantir la cohérence entre Core Model, déploiements et exigences métiers Définir les principes de gestion des données de référence 🔹 Expertise MDG Apporter une expertise avancée sur SAP S/4 MDG Définir et structurer les processus de Master Data Governance Participer au design et à l’intégration de MDG dans l’écosystème S/4 Challenger les choix de conception et proposer des solutions robustes 🔹 Coordination & Transversalité Travailler en étroite collaboration avec les architectes fonctionnels et techniques Accompagner les équipes métiers sur les enjeux Data Assurer l’alignement entre architecture, build et déploiement Sécuriser la qualité et la conformité des données Démarrage : Mars/Avril 2026 Durée : 1 an minimum TJM : Selon profil Localisation : Toulouse (très favorable au remote)
Freelance

Mission freelance
Data Quality Manager

CAT-AMANIA
Publiée le
Apache Spark
AWS Cloud
Collibra

1 an
100-490 €
Lille, Hauts-de-France
VOS RESPONSABILITÉS PRINCIPALES Recueillir et évaluer les besoins en matière de qualité des données Accompagner et organiser des ateliers avec les data owners pour comprendre le cycle de vie des données et collecter les exigences en matière de qualité des données (règles, impacts de la non-qualité, parties prenantes, etc.) Interagir et se coordonner avec les autres parties prenantes du projet (Data Steward, Data Engineer,…) pour s’aligner sur les contrôles Vérifier et valider la pertinence des règles de qualité des données et leur faisabilité Documenter les règles de qualité dans le catalogue de données (Collibra) Mettre en oeuvre les normes et politique de qualité des données sur votre périmètre pour garantir l'opérabilité des données tout au long de leur cycle de vie dans l'entreprise Concevoir et mettre en œuvre des outils de contrôles et de visualisations de la qualité des données, y compris des alertes pour détecter les erreurs et les incohérences Mettre en œuvre et animer les processus de remédiation afin d’assurer l’amélioration continue du dispositif de qualité des données Développer et appliquer des stratégies pour l'amélioration continue de la qualité des données, en collaboration étroite avec les producteurs de données et les équipes techniques. Sensibiliser les parties prenantes internes à l'importance de la qualité des données, en les formant aux bonnes pratiques et en assurant un suivi régulier. Implémenter des outils pour automatiser les tâches de contrôle et de correction des données. Contribuer et participer activement à la communauté des Data Quality Manager

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

5641 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous