Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 003 résultats.
Freelance

Mission freelance
Chef de Projet Déploiement & Support Medius

Comet
Publiée le
Data management

1 an
400-690 €
Île-de-France, France

Missions principales 1. Gestion de projets de déploiement Medius Élaboration du planning / vagues en coordination avec le Program Manager Définition et validation du scope avec les CSP Organisation des kick-off et ateliers de Gap Analysis Suivi des gaps, change management et livrables par phase Coordination et validation des tests, gestion de l’issue list et escalades Préparation du Go-live : cutover, hypercare, transfert au support Reporting aux comités de pilotage (outil interne Concerto) 2. Gestion du support Medius – QAD (intégration) Collecte et qualification des demandes auprès des CSP Coordination du delivery avec équipes Medius / QAD Suivi des tickets (Jira + Medius Portal) Escalade et suivi de résolution

Freelance

Mission freelance
Data Product Manager (Business Analyst / Solution Architect)

Comet
Publiée le
Data management

1 an
400-600 €
Île-de-France, France

Le consultant interviendra au sein de l’équipe Data-as-a-Service et aura pour mission de structurer et piloter une étude stratégique Data couvrant plusieurs régions et métiers. Ses responsabilités incluront : Organisation et pilotage de l’étude : définition du cadrage, identification des parties prenantes et animation des ateliers avec les directions métiers et IT dans un contexte international. Analyse des besoins et des processus : collecte et formalisation des exigences business & IT (globaux et régionaux), compréhension des ambitions stratégiques du segment Construction Chemicals , identification des enjeux majeurs et priorisation. Documentation et modélisation : formalisation de l’architecture fonctionnelle cible, préparation des plans de communication et restitution claire et visuelle des livrables. Planification des travaux : séquencement des différents lots, définition des jalons, intégration des meilleures pratiques issues de la Data & Analytics Factory. Coordination des acteurs Data : organisation et suivi des contributions des équipes internes (Architecte Technique, Data Engineers, BI Engineers), gestion des interfaces avec les métiers et autres départements IT. Évaluation de la valeur métier : identification et documentation des bénéfices attendus, évaluation des impacts business, estimation du ROI. Préparation du projet de mise en œuvre : construction du budget Build/Run, élaboration du planning de déploiement, et rédaction de la proposition finale “Go to Project” à présenter au management. L’objectif final est de fournir une vision claire, structurée et orientée valeur permettant de sécuriser la décision de lancement du projet et de garantir l’alignement entre les ambitions business et les capacités Data & Analytics.

Freelance

Mission freelance
Data Engineer Expérimenté SSIS / SQL SERVEUR -Nantes

Argain Consulting Innovation
Publiée le
Agile Scrum
Microsoft SQL Server
Microsoft SSIS

1 an
400-550 €
Nantes, Pays de la Loire

Dans le cadre de la mise en place d’une nouvelle solution de préparation et de gestion de données sous SQL Server, nous recherchons un Data Engineer SSIS capable d’intervenir en autonomie et d’accompagner les équipes dans l’usage et l’évolution de la plateforme de données. 🧩 Tâches principales Concevoir, développer et maintenir les packages SSIS pour l’intégration et le traitement des données. Développer et optimiser les procédures stockées SQL Server et autres traitements de préparation de données. Accompagner les utilisateurs dans l’utilisation de la plateforme SQL et SSIS. Assurer le support fonctionnel et technique sur les traitements de données. Participer à la formation et au transfert de compétences . Relire et conseiller sur les développements existants. Participer aux phases de conception technique et revue de code . Collaborer avec les équipes métiers et IT pour garantir la qualité et la pertinence des livrables . Travailler dans un cadre Agile / Scrum (participation aux cérémonies, estimation des charges, amélioration continue).

Freelance

Mission freelance
JS FullStack Developer, on GenAI (GCP) - 92 - English mandatory

Montreal Associates
Publiée le
AI
Google Cloud Platform (GCP)
Javascript

4 mois
500-650 €
Saint-Denis, Île-de-France

JS FullStack Developer, on GenAI (GCP) - 92 - English mandatory 🎯 Le projet : Nous recherchons quelqu'un pour participez à un projet innovant et international qui associe développement web JS et intelligence artificielle générative , on Cloud (GCP) Vous travaillerez au sein d’une équipe dynamique sur la création et l’optimisation d’applications full stack JS intégrant les dernières avancées en IA générative (textes & images) , avec un fort accent sur la performance, la scalabilité et l’expérience utilisateur. 🔧 Missions principales : Concevoir et développer des applications web full stack robustes et performantes. Intégrer des modèles de GenAI dans les plateformes (NLP & génération d’images). Concevoir et implémenter des interfaces utilisateurs ergonomiques et esthétiques . Collaborer sur l’infrastructure cloud GCP et les bases de données (orchestrées par MongoDB) afin de garantir des solutions scalables et optimisées. Participer activement aux choix techniques et à l’amélioration continue du projet.

Freelance

Mission freelance
Développeur front sénior Vue.js (H/F)

Insitoo Freelances
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Vue.js

2 ans
100-440 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur front sénior Vue.js (H/F) à Lille, France. Contexte : Votre mission principale est de concevoir et développer des interfaces web modernes, performantes et maintenables dans un environnement agile et collaboratif. En étroite collaboration avec le Tech Lead, les développeurs back-end et les équipes produit, vous jouez un rôle clé dans la vision technique frontend, tout en gardant une ouverture sur l’écosystème back-end. Les missions attendues par le Développeur front sénior Vue.js (H/F) : Développer des interfaces utilisateurs robustes et évolutives en Vue.js et/ou Svelte, dans le respect des bonnes pratiques (performances, accessibilité, responsive, clean code…). Participer à la définition de l’architecture front, aux choix technologiques et à l’estimation des charges. Collaborer efficacement avec les développeurs back-end pour l’intégration des API, que vous êtes capable de comprendre, modéliser, voire développer si besoin. Mettre en œuvre des tests automatisés (unitaires, E2E) et participer aux revues de code pour garantir la qualité des livrables. Contribuer à l’évolution de la chaîne de développement et de déploiement continue (CI/CD), dans un environnement cloud GCP et orienté DevOps. Participer activement à l’amélioration continue des outils, des pratiques de développement Front et des méthodologies (design system, outillage, documentation…). Intervenir ponctuellement dans l’analyse des problèmes en production (RUN) et assurer un suivi des performances front. Assurer une documentation complète des développements.

Freelance

Mission freelance
Architecte Opérationnel Cloud Public (ArchOps) – GCP

Signe +
Publiée le
Google Cloud Platform (GCP)

6 mois
400-650 €
Paris, France

Le client recherche un Architecte Opérationnel Cloud Public (ArchOps) – GCP afin de faire évoluer, cadrer et industrialiser sa Landing Zone GCP , sécuriser les choix d’architecture et accélérer l’adoption maîtrisée des services managés par les projets internes. L’ArchOps travaillera en lien avec le System Architect de la chaîne de service Cloud Public, les intégrateurs, le fournisseur cloud, et les équipes internes pour définir la trajectoire technique, outiller la gouvernance et accompagner les projets (Build & Run). Enjeux principaux Élever le design de la Landing Zone selon l’état de l’art : réseau, IAM, sécurité, scalabilité, FinOps. Cadrer et valider les services managés GCP au sein du CSR (contrôles, Org Policies, tags, gouvernance). Industrialiser l’automatisation (Terraform, GitLab CI/CD, scripts) et renforcer le DevEx. Accompagner les projets dans leur accostage à la Landing Zone (conseil, validation, dossiers d’architecture). Assurer le support N3, le transfert de compétences et la documentation d’exploitation à jour. Garantir une gouvernance outillée et traçable des décisions d’architecture, alignée avec les comités CCOE / Design Authority. Périmètre des missions Étude et évolution de l’architecture (réseau, IAM, sécurité, scalabilité, FinOps). Validation des services managés GCP (cadrage, règles de contrôle, Org Policies). Contribution au backlog d’évolution technique et préparation des PI Planning. Définition/maintenance du DevEx (CI/CD, scripts, catalogue de services). Industrialisation en code et documentation (tests, traçabilité CI/CD, normes EDF). Support à l’exploitation et transfert de compétences (guides, formations, REX). Participation aux instances SAFe et comités de pilotage. Livrables attendus Architecture : Dossier d’Architecture Technique du socle (mis à jour à chaque évolution majeure). Synthèse des décisions d’architecture avec traçabilité continue. Dossiers d’étude et d’aide à la décision (Confluence/PPT) par release. CSR & Gouvernance : Cahiers de recette avec jeux de tests automatisés (lorsque possible). Fiches de service (au moins une par trimestre) présentées en comité CCOE / Design Authority avec plan de contrôle. Projets : Comptes rendus et dossiers d’architecture (fonctionnelle/technique, RACI). Indicateurs de satisfaction projets. DevEx & Industrialisation : Pipelines CI/CD et scripts par release. Catalogue des services (MAJ semestrielle). Documentation DevEx initiale puis mise à jour. 100 % du code documenté/versionné (Git), respect qualité/process, zéro geste manuel. Transfert de compétences : Guides d’exploitation par release. Supports et rapports de formation (2–3/an, satisfaction >80 %). Suivi : PVR mensuel contradictoire conditionnant la rémunération (qualité/délais/volumes). Compétences requises Architecture Cloud Public – Expert – Impératif. Google Cloud Platform (GCP) – Expert – Impératif. Google Cloud Storage – Expert – Impératif. CI/CD DevOps (Terraform, GitLab CI/CD, scripts) – Expert – Impératif. Français courant (oral & écrit) – Impératif.

Freelance

Mission freelance
Data Engineer azure (SQL / ADF /Power BI)

adbi
Publiée le
Azure Data Factory
Azure DevOps
CI/CD

10 mois
Île-de-France, France

Au sein d’un Centre de Compétences Data, le Data Engineer participe à des projets de transformation digitale. Il conçoit, développe et déploie des solutions Data et BI pour permettre aux utilisateurs métiers de suivre et analyser leurs activités. Il met en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts), développe des pipelines ETL/ELT automatisés avec Azure Data Factory et SSIS, assure la qualité, la sécurité et la performance des données, et collabore avec les équipes DevOps, Product et Data pour garantir la cohérence technique et fonctionnelle des solutions. Compétences attendues : Langages : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Outils : GitLab, Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning

Freelance

Mission freelance
Administrateur N3

HAYS France
Publiée le
Administration linux
Google Cloud Platform (GCP)
Linux

2 mois
Lille, Hauts-de-France

Une mission courte mais stratégique est proposée à Lille, du 3 novembre au 31 décembre 2025. Elle s’adresse à un profil souhaitant intervenir en tant qu’administrateur N3 sur un produit métier à fort enjeu. Vous serez responsable du traitement des incidents via EasyVista, de la gestion des problèmes en lien avec l’éditeur, et de certains sujets issus de la backlog produit sous la responsabilité du Product Owner. Vous contribuerez également aux projets liés au produit. Le profil recherché correspond à un responsable des systèmes applicatifs junior, capable d’assurer l’évolution, la maintenance corrective et applicative du système, tout en garantissant le support de niveau 2 et le respect du contrat de services (qualité, sécurité, etc.).

Freelance
CDI

Offre d'emploi
DATA SCIENTIST F/H | NANTES (44)

HIGHTEAM GRAND SUD
Publiée le
Data science
Machine Learning
Python

3 ans
10k-43k €
100-320 €
Nantes, Pays de la Loire

VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client au sein d'une équipe de spécialistes et interviendrez sur des sujets variés (risques, fraudes, commerce, etc.). Dans le cadre de votre mission, vous serez en charge de : Analyser les données Créer et utiliser des modèles mathématiques et de Machine Learning Environnement Technique : Python, R, ML Le poste est basé à Nantes (44) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre période d'intégration.

CDI
Freelance

Offre d'emploi
Architecte Solutions Data

1G-LINK CONSULTING
Publiée le
Big Data
CI/CD
SAS

1 mois
Île-de-France, France

1G-Link est une entreprise innovante en pleine croissance, au cœur de la transformation numérique. Nous accompagnons les organisations dans la valorisation de leurs données à travers des architectures scalables, modernes et performantes. Dans le cadre de notre développement, nous recherchons un(e) Architecte Solutions Data avec une expertise forte sur Snowflake et Microsoft Azure. Vos missions En tant que membre de l’équipe Data Capture, le poste requiert un bagage technique et architectural ainsi qu’une solide expérience pratique des technologies Cloud, du développement de microservices et de l’Event Driven Architecture. Il implique également une collaboration étroite avec les équipes IT Groupe/Zone, les partenaires métiers, les partenaires externes et l’ensemble des membres de l’équipe d’intégration. En tant qu’Architecte Data, vous serez au centre des projets de transformation data de nos clients. Vos responsabilités incluront : Concevoir et proposer des solutions sur la donnée en utilisant les technologies Azure Cloud dans notre cadre de référence Concevoir et proposer des solutions sur Snowflake Appliquer la stratégie « Data as a Service » conformément aux bonnes pratiques architecturales Concevoir et développer des APIs / Microservices pour enrichir notre cadre de solutions Soutenir la stratégie d’Event Driven Architecture basée sur Azure Event Hub et Azure IoT Hub Contribuer à notre catalogue de services pour l’enrichissement en self-service Participer à la modernisation et à la sensibilisation technologique au sein de l’équipe Data Capture et à travers l’organisation Data & Analytics Être le référent Cloud de l’équipe Animer des ateliers et faciliter la collecte des besoins Accompagner les Data Engineers sur les sujets liés au Cloud Apporter un support à l’équipe Sécurité sur les sujets concernés Contribuer à la feuille de route et à l’évolution de Data Capture Challenger et accompagner les prestataires externes Capacité à produire une restitution documentaire (dans le cadre d’un audit, d’un POC, ou selon les standards et l’architecture) Les + de l’offre Projets innovants à fort impact Culture d’entreprise basée sur la collaboration, la montée en compétence et la bienveillance Environnement de travail flexible (télétravail possible : 2 jours par semaine) Accès à un programme de certification et de formation continue

Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

PROPULSE IT
Publiée le
BI

24 mois
250-500 €
Paris, France

INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS

Freelance
CDI

Offre d'emploi
Data Engineer Senior - Tours

OBJECTWARE MANAGEMENT GROUP
Publiée le
Java
Microsoft Power BI
Python

12 mois
40k-45k €
400-640 €
Tours, Centre-Val de Loire

Vos principales responsabilitésComitologie, documentation & cartographie data Préparer et animer les instances transverses DSIM (League Design Data, Guildes Data, etc.) Documenter les assets Data de la plateforme DSIM (SimDoc, Datahub, Datalab) Réaliser la cartographie des données et concevoir/développer les outils associés Expertise Data Apporter un accompagnement technique et un rôle de conseil sur les projets Data / Big Data (Datahub & Datalab) Participer à l’analyse, la conception et la refonte d’assets Data transverses Contribuer au suivi des évolutions et migrations de la stack technique DSIM Facilitation et coordination Jouer un rôle de médiation entre projets transverses Accompagner l’expression des besoins et la rédaction de spécifications technico-fonctionnelles Compétences obligatoires Minimum 10 ans d’expérience dans le domaine Data / Big Data Maîtrise de la modélisation et cartographie Data Maîtrise des environnements : Spark/Java, Kafka Entreprise, Starburst, OpenShift, SQL Excellentes qualités relationnelles : coordination, écoute, pédagogie Compétences optionnelles Power BI SAS Python

CDI

Offre d'emploi
Data engineer BI (H/F)

Amiltone
Publiée le
BI

35k-40k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez en tant qu'ingénieur BI. Vos missions : - Etre force de proposition sur la conception (normes, méthodes, contexte, environnements...) et la réalisation de traitements ETL industrialisés. - Challenger les besoins et de proposer des solutions viables et scalables d'un point de vue technique tout en respectant les budgets impartis. - Concevoir des rapports sur Power BI. - Tirer parti des services managés et de données de l'écosystème Microsoft Azure : Azure Data Factory, Azure Synapse Analytics, Power BI, etc. - Organiser des différentes couches d'un DataLake par type et qualité de données. - Assurer la sécurisation de l'écosystème de données Silae (Gestion des droits, etc.) Vos compétences : - Connaissances sur les ETLs (Azure Synapse/Azure Data Factory, Talend, DataStage,...) - Connaissances de Power BI et maitrise de la génération des rapports. - Connaissance d'Azure DataLake (Gen1 / Gen2). - Maitrise de SQL/Transac-SQL et des bases de données MySQL et MS SQL Server. Les plus : - Connaissances avancées d'Azure Synapse et de l'écosystème de données/BI de Microsoft Azure.

CDI

Offre d'emploi
Data Engineer H/F

JEMS
Publiée le

45k-55k €
Nantes, Pays de la Loire

Nous recherchons un(e) data engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : ahorcmz9jc

Freelance

Mission freelance
ML Engineer confirmé

Teaminside
Publiée le
Apache Airflow
Apache Spark
MLOps

6 mois
500-650 €
Île-de-France, France

Nous recherchons un ML Engineer confirmé pour une mission de 3 à 6 mois au sein de l’entité Data Analyse & Data Science de la Data Factory Omnicanal. Objectif : accompagner la montée en puissance des cas d’usage marketing via l’IA, tout en respectant la stratégie de jeu responsable, avec un fort focus sur l’industrialisation et la robustesse des modèles ML. Missions principales Le/la ML Engineer interviendra notamment sur : Migration de l’existant Data Science d’Hadoop vers AWS S3 et Dataiku Portage, optimisation et industrialisation des pipelines de données Mise en place et suivi des bonnes pratiques MLOps (CI/CD, monitoring, amélioration continue) Développement et déploiement de modèles ML avancés adaptés aux enjeux marketing digital Documentation et partage de bonnes pratiques Infos pratiques 📍 Lieu : île de France – 2 jours de TT / semaine 📅 Démarrage : 29/09/2025

Freelance

Mission freelance
Data Steward Senior

Nicholson SAS
Publiée le
draw.io
JIRA
MEGA

10 mois
450-460 €
Lyon, Auvergne-Rhône-Alpes

Contexte : cellule Marché Data Science Profil : Data Steward Senior Missions Principales : Organisation des travaux : animation d'atelier, coordination, reporting, Revue de l’existant : lecture de documents, création de glossaire validé par les Data Owners, Modélisation des objets métiers : diagrammes UML simplifiés, Anlayse de la qualité des données : statistiques, indicateurs, mise à jour des modèles, Maintenir les lignages de données : entre sources et consommateurs, Communication avec les parties prenantes : supports, cartographies, réponses aux questions

2003 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous