Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 7 421 résultats.
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer DBT senior

PRIMO CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD

1 an
40k-60k €
400-520 €
Paris, France
Pour l'un de nos grands comptes, nous recherchons un Data Engineer pour travailler dans une équipe composée de 1 Product Owner et de 2 Data Engineer : Participer aux phases de conception, de planification et de réalisation des tâches Construire et maintenir des pipelines Data robustes et scalables Produire des modèles DBT pour la transformation sur un environnement GCP (Bigquery) Expérience en méthodologie Agile (scrum ou kanban) Maîtriser la Stack technique : DBT, Python, SQL, GCP, Bigquery, Terraform, Airflow, Ci/cd.
CDI

Offre d'emploi
Data Scientist (H/F)

█ █ █ █ █ █ █
Publiée le

35k-43k €
Montpellier, Occitanie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
CDD

Offre d'emploi
Technicien Support Applicatif N2 (H/F)

RIDCHA DATA
Publiée le
API REST
Confluence
JIRA

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Contexte de la mission Dans le cadre d’une augmentation importante de la charge de travail , l’équipe support doit être renforcée afin de maintenir un niveau de service optimal. Le technicien interviendra au sein de l’équipe support pour assurer le traitement des demandes clients et le bon fonctionnement des applications . Missions principalesSupport technique et applicatif Assurer un support de niveau 2 via un outil de ticketing . Diagnostiquer et résoudre les incidents techniques et fonctionnels . Garantir le respect des SLA liés au traitement des demandes de support. Gestion des comptes et accompagnement client Configurer les comptes clients sur les différentes applications . Accompagner les clients dans l’ intégration et l’utilisation de la solution en collaboration avec l’équipe Customer Success Management (CSM) . Rédiger les communications clients en cas d’incident ou d’évolution. Supervision et maintenance Déployer et maintenir les outils de supervision de la solution . Participer au suivi du bon fonctionnement des services applicatifs . Documentation et amélioration continue Rédiger et maintenir les procédures de support (niveau 1 et niveau 2) . Participer à l’ amélioration des processus de support . Support opérationnel Bien que les appels entrants soient principalement traités par un prestataire externe , intervenir ponctuellement en débordement si nécessaire. Livrables attendus Traitement des tickets de support niveau 2 Respect des SLA de traitement Documentation des procédures de support Communications clients lors d’incidents ou évolutions Suivi des outils de supervision applicative Compétences techniquesCompétences indispensables REST / SOAP – Confirmé – Impératif Bonne connaissance des outils de ticketing Compétences appréciées Jira Confluence Langues Anglais professionnel – impératif Environnement de travail Environnement éditeur logiciel Collaboration avec les équipes support, technique et Customer Success Méthodologie Agile (appréciée)
Freelance

Mission freelance
Data Scientist orienté Marketing- H/F

Wekey
Publiée le
Data science

6 mois
600-660 €
Niort, Nouvelle-Aquitaine
Hello ! Nous c’est WEKEY ! Nous ne sommes ni une ESN ni un cabinet de recrutement. Aaah mais qui sommes-nous alors ? Pour tout savoir sur nous et votre future mission c’est par ici 😁⬇ Vous êtes Data Scientist orienté Marketing H/F et vous recherchez une mission en freelance ? Nous avons le projet qu’il vous faut pour l'un de nos clients basé à Niort dans le secteur des assurances. CE QUI VOUS ATTEND 👀 Dans le cadre de la mission votre rôle sera : Cadrage des besoins métiers (Marketing) Identification de cas d’usage IA (segmentation, churn, appétence, reco produit…) Analyse et préparation des données Conception, entraînement et évaluation de modèles ML Implémentation en Python jusqu’à la mise en production Présentation et vulgarisation des résultats Force de proposition sur des approches innovantes
Freelance

Mission freelance
Team Leader Data Engineering (H/F)

AGH CONSULTING
Publiée le
Apache Kafka
Confluence
Data management

6 mois
250-500 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un(e) Team Leader Data Engineering qui, sous la responsabilité du Head of Engineering Logistique, sera responsable de l'équipe Data Engineering dédiée à la plateforme C-Logistics. Véritable référent technique et manager opérationnel, vous agirez comme facilitateur, coach technique et moteur de la performance de l'équipe, en s'appuyant sur les principes du Lean management. Vous contribuerez à la mise en oeuvre d'une plateforme data performante, fiable et scalable, en étroite collaboration avec le Product Manager et les équipes métiers. À ce titre, vos principales responsabilités seront : -Piloter et accompagner l'équipe Data Engineering -Optimiser les processus de delivery et d'industrialisation des pipelines data -Identifier, analyser et résoudre les causes racines des incidents de production -Favoriser l'autonomie, la collaboration et la montée en compétence de l'équipe -Garantir la performance, la fiabilité et la scalabilité des solutions data -Assurer l'alignement des solutions techniques avec la vision produit -Contribuer à l'amélioration continue des pratiques techniques et organisationnelles Périmètre Le poste couvre : -La production et la gestion des données et KPI pour les collaborateurs de la filiale C-Logistics -Le partage de données avec les autres filiales du groupe -Le partage de données avec les clients B2B Environnement technique : Vous évoluerez dans un environnement data moderne comprenant : -Snowflake -SQL -Talend -DBT -Kafka -Python -Power BI Outils utilisés : -Jira -Confluence Équipe : Vous encadrerez une équipe composée de : 4 Data Engineers et 1 Lead Developer
CDI

Offre d'emploi
Data Scientist (F/H)

█ █ █ █ █ █ █
Publiée le
Python
Pytorch
Scikit-learn

40k-48k €
Montpellier, Occitanie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Machine Learning Engineer - MLOps

Okara
Publiée le
Docker
MLOps

6 mois
Lille, Hauts-de-France
Au sein d'un acteur majeur du retail européen, l'équipe Data & IA Marketplace traite des volumes massifs de données issues de vendeurs tiers. L'objectif est d'automatiser la qualification, la classification et l'enrichissement des catalogues produits pour garantir une expérience utilisateur optimale. Le défi réside dans l'industrialisation de modèles complexes au sein d'une architecture Data Mesh en forte croissance. La Stack Technique Langages : Python, Bash. Cloud : GCP (Google Cloud Platform). Orchestration & MLOps : Airflow, Kubeflow, ZenML, MLflow, Vertex AI. Infrastructure & DevOps : Docker, Kubernetes, Terraform, Ansible, Gitlab CI. Data Quality & Feature Store : Great Expectations, Feast. Ta Mission & Ton Impact : Concevoir et maintenir des pipelines MLOps automatisés (CI/CD) pour l'entraînement et le déploiement des modèles en production. Gérer l'infrastructure cloud via Terraform et assurer le versioning complet des modèles et des données. Implémenter le monitoring de performance (détection de drift, latence) et configurer l'alerting pour garantir la fiabilité des solutions. Accompagner les Data Scientists dans l'adoption des meilleures pratiques de développement (code quality, tests, industrialisation). Intégrer des validations de schémas et des filtres de qualité de données au sein des pipelines de production.
Freelance
CDI

Offre d'emploi
Data engineer

SKYLLIT
Publiée le
Docker
Github
Google Cloud Platform (GCP)

1 an
Île-de-France, France
Profil Data Engineer/Data Analyst Senior pour gérer des applications liées au métier de la CDMO (Chief Digital & Marketing Office), dans une équipe dynamique aux profils variés (Tech Lead, Dev Full Stack, Data Scientist, Product Owner, QA...) Une des applications One Creative consiste à offrir une vision complète de la performance & l'optimisation de chaque asset media, de la stratégie globale à l'activation locale. o Développer et maintenir les data pipelines de : · Sourcing des données (Datalake BigQuery) · Téléchargement d'assets vidéo via API social media platforms · Analyse créative (application interne Augmented DAM) · Automatisation des processus IA (embedding, clustering) o Transformer la donnée brute du Datalake en tables optimisées pour l'application One Creative (fusion KPIs de performance, métadonnées, données créatives...) o Optimiser le déploiement du backend sur GCP o Améliorer la code base en ajoutant des tests unitaires et d'intégration sur le code Python o Développer une première brique de monitoring des données récupérées (assets, KPIs) o Moderniser les briques techniques (thumbnail, product-detection, encoder) avec des approches plus modernes et optimisées o Optimiser la chaîne CI/CD o Travailler sur la migration du backend Augmented DAM (autre application interne utilisée en tant que service de One Creative) o Développer les requêtes SQL pour sourcer les données dans les tables du Datalake, sur la base des inputs du Data Business Owner o Documenter les données récupérées depuis le Datalake avec des documents et des schémas des données o S'assurer de la qualité des données consolidées dans l'application par rapport aux données sources o Aider sur le développement des métriques de monitoring des KPIs de l'application o Analyser et croiser les données pour générer de nouveaux insights (creative data qui génèrent le plus de performance...) et benchmarks
CDI
Freelance

Offre d'emploi
Data Scientist Senior (Machine Learning, MLOps & IA Générative) - Lille (H/F)

STORM GROUP
Publiée le
MLOps
Pandas
Python

3 ans
50k-57k €
500-600 €
Lille, Hauts-de-France
Contexte du poste : Un acteur bancaire souhaite renforcer sa stratégie d’Intelligence Artificielle en développant des solutions avancées de Machine Learning, Deep Learning, NLP et IA Générative. L’objectif est de valoriser les données, optimiser les processus internes et améliorer l’expérience client grâce à des modèles robustes, explicables et industrialisés. Missions principales : 1. Modélisation Risque & Scoring Concevoir, optimiser et challenger les modèles de scoring d’octroi et de comportement. Explorer des approches innovantes pour améliorer la performance et la stabilité des modèles. Déployer les modèles en production et assurer leur monitoring (dérive, performance, stabilité). Travailler en étroite collaboration avec les équipes Risque, Validation et les experts métier. 2. Développement de Solutions IA Intégrer les modèles ML/AI en temps réel dans les parcours digitaux (scoring instantané, personnalisation des offres…). Participer à la conception de l’architecture technique (Cloud, MLOps, API, pipelines). Collaborer avec les équipes IT et Produit pour industrialiser les solutions et garantir leur scalabilité. 3. IA Générative & Agents Prototyper et déployer des solutions d’IA Générative (LLM, RAG, agents intelligents) pour transformer les processus internes (Marketing, Audit, Risque, Support…). Mettre en place des architectures agentiques pour automatiser des tâches complexes : analyse documentaire, octroi de crédit, interaction client. Évaluer et monitorer les performances des agents (cohérence, diversité, RAGAS, LLM-as-a-Judge…).
Freelance

Mission freelance
DevOps Engineer – Plateforme Data & CI/CD (F/H)

CELAD
Publiée le

1 an
420-460 €
Lyon, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 à 3 jours de télétravail / semaine - Lyon 7ème - Expérience de 5 ans minimum Et si votre prochain défi consistait à industrialiser une plateforme data utilisée à grande échelle dans un grand groupe de l’énergie ? Nous recherchons un DevOps / Intégrateur pour intervenir au cœur d’un environnement technique exigeant, où l’objectif est simple : fiabiliser et automatiser les environnements utilisés par les équipes Data. Concrètement, vous contribuerez à rendre les plateformes plus robustes, plus automatisées et plus faciles à exploiter pour les équipes qui développent et analysent les données. Ce que vous allez faire au quotidien : Votre rôle sera de simplifier et sécuriser la mise en production des applications et des traitements data. - Vous développerez et améliorerez les pipelines de déploiement automatisé pour permettre aux équipes de livrer plus rapidement et plus sereinement leurs applications. - Vous maintiendrez les infrastructures et middlewares Linux afin de garantir la disponibilité des environnements analytiques. - Vous industrialiserez les environnements utilisés par les équipes Data pour les rendre reproductibles, fiables et facilement déployables. - Vous collaborerez régulièrement avec les équipes développement, architecture, sécurité et exploitation pour aligner les solutions avec les standards du SI. - Vous contribuerez aux réflexions autour des évolutions Cloud et On-Premise, notamment pour améliorer la résilience et la performance des plateformes. - Vous documenterez les solutions mises en place afin de faciliter leur exploitation et leur évolution. - Vous participerez aux rituels d’équipe et aux échanges techniques autour de l’amélioration continue des environnements. Votre objectif : garantir des plateformes data fiables, automatisées et résilientes.
CDI

Offre d'emploi
DevOps Engineer – Plateforme Data & CI/CD (F/H)

CELAD
Publiée le

45k-50k €
Lyon, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 à 3 jours de télétravail / semaine - Lyon 7ème - Expérience de 5 ans minimum Et si votre prochain défi consistait à industrialiser une plateforme data utilisée à grande échelle dans un grand groupe de l’énergie ? Nous recherchons un DevOps / Intégrateur pour intervenir au cœur d’un environnement technique exigeant, où l’objectif est simple : fiabiliser et automatiser les environnements utilisés par les équipes Data. Concrètement, vous contribuerez à rendre les plateformes plus robustes, plus automatisées et plus faciles à exploiter pour les équipes qui développent et analysent les données. Ce que vous allez faire au quotidien : Votre rôle sera de simplifier et sécuriser la mise en production des applications et des traitements data. - Vous développerez et améliorerez les pipelines de déploiement automatisé pour permettre aux équipes de livrer plus rapidement et plus sereinement leurs applications. - Vous maintiendrez les infrastructures et middlewares Linux afin de garantir la disponibilité des environnements analytiques. - Vous industrialiserez les environnements utilisés par les équipes Data pour les rendre reproductibles, fiables et facilement déployables. - Vous collaborerez régulièrement avec les équipes développement, architecture, sécurité et exploitation pour aligner les solutions avec les standards du SI. - Vous contribuerez aux réflexions autour des évolutions Cloud et On-Premise, notamment pour améliorer la résilience et la performance des plateformes. - Vous documenterez les solutions mises en place afin de faciliter leur exploitation et leur évolution. - Vous participerez aux rituels d’équipe et aux échanges techniques autour de l’amélioration continue des environnements. Votre objectif : garantir des plateformes data fiables, automatisées et résilientes.
Freelance

Mission freelance
Architecte Technique Data

CONCRETIO SERVICES
Publiée le
Data governance
Telecom

12 mois
390-600 €
Île-de-France, France
Nous recherchons pour le compte de notre client un architecte technique data pour transformer les données télécoms en informations exploitables, en concevant et optimisant des algorithmes d'analyse distribuée. Missions Analyser, qualifier et valider les données sources avec les équipes métiers Concevoir et implémenter les algorithmes distribués de valorisation et de détection d'anomalies Optimiser les traitements face aux contraintes de volumétrie et de délais Garantir la cohérence, la fiabilité et la véracité des résultats produits Étudier les corrélations et restituer les résultats de manière exploitable Accompagner les métiers dans la compréhension et l'interprétation des données Documenter les jeux de données, règles de calcul et usages associés Veiller au respect des exigences de cybersécurité
CDI

Offre d'emploi
Expert Data Scientist – IA Générative & Computer Vision (F/H)

CELAD
Publiée le

38k-42k €
Clermont-Ferrand, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Clermont-Ferrand - Expérience de 5 ans minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Expert.e Data Scientist – IA Générative & Computer Vision pour intervenir chez un de nos clients. Contexte : Vous avez envie d’utiliser l’IA pour résoudre des problèmes très concrets liés à la mobilité ? Pour renforcer l’équipe, nous recherchons un.e Expert.e Data Scientist – IA Générative & Computer Vision, capable de concevoir des modèles avancés et de contribuer à l’industrialisation de solutions innovantes. Votre rôle s’articule autour de plusieurs axes : Concevoir des modèles d’IA à fort impact : - Développer des briques d’algorithmes pour nos modèles prédictifs - Concevoir, tester et améliorer les modèles en assurant la traçabilité des expérimentations et des performances. - Définir et suivre les indicateurs permettant de mesurer les progrès et éviter les régressions. Faire avancer nos projets en IA générative et systèmes agents : - Contribuer au développement de solutions basées sur les LLM, VLM et systèmes agents. - Participer aux choix techniques : modèles, frameworks (LangChain, LangGraph, MCP, etc.). - Identifier quand l’usage d’agents est pertinent en tenant compte de la latence, du coût et des performances. Aller du prototype à l’industrialisation : - Construire des POC et prototypes, puis accompagner leur passage à l’échelle. - Veiller à l’interopérabilité des outils pour limiter les silos de données et maximiser l’impact des solutions. Contribuer à la vision et à l’innovation : - Faire de la veille sur les innovations en IA et mobilité. - Proposer de nouvelles approches ou opportunités technologiques. - Collaborer avec des partenaires externes : laboratoires, universités, start-ups. Travailler avec l’écosystème produit : - Échanger avec les équipes internes et les clients pour comprendre leurs besoins. - Partager vos analyses et résultats avec des interlocuteurs techniques et non techniques.
CDI
Freelance

Offre d'emploi
Data Scientist MLOps (H/F)

STORM GROUP
Publiée le
Apache Airflow
BigQuery
MLOps

3 ans
45k-55k €
400-500 €
Île-de-France, France
Missions : • contribution aux projets décisionnels - Big data • participation et animation de groupes de travail avec les utilisateurs et les informatiques • collecte des besoins auprès des métiers • modélisation et développement des reporting : spécification des indicateurs décisionnels (statistique, qualité, facturation) • exploration de données • rédaction des livrables : spécifications fonctionnelles et techniques, cahiers de recette • participation aux recettes • formation et accompagnement des utilisateurs
Freelance

Mission freelance
Expert Data Scientist – IA Générative & Computer Vision (F/H)

CELAD
Publiée le

1 an
300-360 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Clermont-Ferrand - Expérience de 5 ans minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Expert.e Data Scientist – IA Générative & Computer Vision pour intervenir chez un de nos clients. Contexte : Vous avez envie d’utiliser l’IA pour résoudre des problèmes très concrets liés à la mobilité ? Pour renforcer l’équipe, nous recherchons un.e Expert.e Data Scientist – IA Générative & Computer Vision, capable de concevoir des modèles avancés et de contribuer à l’industrialisation de solutions innovantes. Votre rôle s’articule autour de plusieurs axes : Concevoir des modèles d’IA à fort impact : - Développer des briques d’algorithmes pour nos modèles prédictifs - Concevoir, tester et améliorer les modèles en assurant la traçabilité des expérimentations et des performances. - Définir et suivre les indicateurs permettant de mesurer les progrès et éviter les régressions. Faire avancer nos projets en IA générative et systèmes agents : - Contribuer au développement de solutions basées sur les LLM, VLM et systèmes agents. - Participer aux choix techniques : modèles, frameworks (LangChain, LangGraph, MCP, etc.). - Identifier quand l’usage d’agents est pertinent en tenant compte de la latence, du coût et des performances. Aller du prototype à l’industrialisation : - Construire des POC et prototypes, puis accompagner leur passage à l’échelle. - Veiller à l’interopérabilité des outils pour limiter les silos de données et maximiser l’impact des solutions. Contribuer à la vision et à l’innovation : - Faire de la veille sur les innovations en IA et mobilité. - Proposer de nouvelles approches ou opportunités technologiques. - Collaborer avec des partenaires externes : laboratoires, universités, start-ups. Travailler avec l’écosystème produit : - Échanger avec les équipes internes et les clients pour comprendre leurs besoins. - Partager vos analyses et résultats avec des interlocuteurs techniques et non techniques.
CDI

Offre d'emploi
Data Engineer

Recrut Info
Publiée le
AWS Cloud
Data Lake
Python

45k-55k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au Head of Data, vous participerez aux développements de la plateforme data. Dans un contexte cloud-first (AWS), vos principales missions seront les suivantes : - Concevoir, déployer et maintenir des systèmes de données résilients, sécurisés et scalables : bases de données, data warehouses, data lakes, traitements batch et temps réel, flux d’ingestion et transformations de données. - Développer, industrialiser et superviser des pipelines de données de type ETL/ELT. - Garantir la structuration, la qualité et la bonne gouvernance des données au sein des différents environnements de stockage. - Mettre en œuvre des solutions de Business Intelligence et de data visualisation telles que Power BI, afin de faciliter l’analyse et la prise de décision. - Répondre aux besoins de mise à disposition des données, de mise en production des modèles et d’optimisation des performances. - Concevoir et déployer des solutions d’exposition de la donnée via des API internes et externes. - Contribuer à la mise en œuvre de projets IA sur différents piliers métiers et business. - Sécuriser les architectures techniques et les échanges entre services en appliquant les meilleures pratiques de sécurité : IAM, gestion des habilitations, principe du least privilege, etc. Environnement technique : Python (requis), AWS (souhaité), Make (souhaité), RedShift (souhaité), PostgreSQL (souhaité), GitHub Actions (souhaité), SQL (requis), NOSQL (requis), Amazon S3 (souhaité), AWS Lambda (souhaité), Amazon ECS (souhaité), R (souhaité)

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

7421 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous