Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 175 résultats.
Freelance

Mission freelance
Scrum Master SAFe Data h/f

Publiée le
Agile Scrum
Safe

3 ans
400-620 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Pour notre client dans le secteur privé, nous recherchons un Scrum master SAFe confirmé (à minima 8/10 ans d'expérience). Le Scrum Master a pour mission d’accompagner et de faciliter le travail de son (ses) Agile Team(s) dans la structuration et la réalisation de ses (leurs) activités. Cette prestation d’assistance technique sera supervisée par le RTE et le coach du train SAFe Une certification est obligatoire: Scrum Master SAFE Scaled Agile + éventuellement RTE Scaled Agile ou SPC Scaled Agile.
Freelance

Mission freelance
Data Analyst Social Listening ( 4 ans xp)

Publiée le
Data analysis
IA Générative

120 jours
400-480 €
Paris, France
Télétravail partiel
Contexte de la prestation : La prestation s’inscrit au sein de la Direction de la Communication Digitale de France Télévisions. Elle vise à conduire des analyses quantitatives et qualitatives relatives à la réputation du groupe sur les réseaux sociaux et le web. Le prestataire travaillera en lien étroit avec l’équipe communication digitale et contribuera au pilotage opérationnel de la veille, de l’analyse et des recommandations stratégiques. Missions : 1. Veille et suivi en temps réel : > Assurer une veille continue, réactive et structurée des conversations sur les réseaux sociaux et le web via des outils de social listening. > Surveiller en temps réel les signaux faibles, les sujets sensibles et les potentiels sujets de crise. > Effectuer la veille en direct lors d’émissions diffusées en soirée. 2. Analyse et production de livrables > Produire des notes d’analyse synthétiques et rapides : - Notes quotidiennes - Notes mensuelles - Analyses thématiques - Notes ad hoc selon actualité - Effectuer des études réputationnelles dans le cadre de campagnes ou dispositifs de marketing d’influence. 3. Recommandations et accompagnement stratégique - Construire des recommandations éditoriales et stratégiques à destination de la Direction de la Communication Digitale et d’autres directions internes. - Proposer des pistes d’amélioration ou d’optimisation des dispositifs de communication digitaux. 4. Collaboration interne - Travailler en étroite collaboration avec l’équipe communication digitale et contribuer à la coordination lors des sujets urgents ou sensibles. Expertises et compétences requises : > Expérience - Minimum 1 an d’expérience dans le secteur des médias et/ou du secteur public. - Minimum 5 ans d’expérience en social listening, incluant l’analyse de données conversationnelles.
Freelance

Mission freelance
Data Platform Engineer – Snowflake / Terraform (Full Remote – Belgique)

Publiée le
Snowflake

6 mois
580 €
Paris, France
Télétravail partiel
Contexte du poste : Dans le cadre du renforcement de ses équipes Data & Cloud, notre client recherche un Data Platform Engineer spécialisé dans la conception, le déploiement et la maintenance d’infrastructures data à grande échelle. L’objectif est de bâtir un écosystème de données robuste, automatisé et sécurisé , supportant l’ensemble des pipelines et applications data de l’entreprise. Le poste est basé en Belgique , mais 100 % remote est possible. Missions principales : Concevoir, développer et maintenir l’infrastructure sous-jacente aux plateformes data (Snowflake principalement). Industrialiser le provisioning et la configuration via Terraform (Infrastructure as Code) . Garantir la scalabilité, la sécurité et la performance de la plateforme data. Mettre en place et maintenir les pipelines CI/CD (Git-based workflows). Gérer la sécurité des secrets et credentials via les outils dédiés (Vault, AWS/Azure/GCP Secret Manager). Collaborer avec les équipes Data Engineering, Cloud et Sécurité pour assurer la cohérence et la fiabilité de la plateforme. Contribuer à la documentation technique, au suivi Jira et à l’amélioration continue du delivery. Compétences techniques requises : Excellente maîtrise de la plateforme Snowflake (architecture, performance tuning, RBAC, best practices). Expertise confirmée en Terraform , notamment pour la création de modules et l’automatisation des déploiements cloud. Expérience sur des workflows CI/CD Git-based (GitHub Actions, GitLab CI, Jenkins...). Maîtrise d’au moins un outil de gestion des secrets : HashiCorp Vault, AWS Secrets Manager, Azure Key Vault ou GCP Secret Manager. Bonne connaissance de l’ écosystème DevOps et des outils de suivi (Jira, Confluence). Profil recherché : 5 à 8 ans d’expérience en ingénierie data ou cloud infrastructure. Solides compétences en Industrialisation et Sécurité des environnements data . Esprit analytique, autonome et rigoureux. Capacité à travailler dans un environnement international et collaboratif. Langue : Anglais courant (obligatoire) .
Freelance

Mission freelance
Architecte SI applicatif et intégration, Data Flow, API, MFT - Paris - Vorstone

Publiée le
API
API Platform
Enterprise Application Integration (EAI)

2 ans
600-800 €
Paris, France
Télétravail partiel
Architecte SI applicatif et intégration, Data Flow, API, MFT - Architecture SI et gouvernance applicative SI Vorstone recherche un Consultant Senior en Architecture et Intégration IT pour un de ses clients, un groupe international basé à Paris. L' Architecte d’entreprise applicatif et intégration , Data Flow, API, MFT senior sera responsable de toute l’architecture IT y compris data exchange/ API platform management, au sein du paysage IT du groupe. Ce rôle veille à l’alignement des systèmes informatiques avec les objectifs métier, soutient le développement et l’intégration de nouvelles technologies, et maintient l’efficacité opérationnelle des services IT. L’Architecte SI applicatif et intégration, Data Flow, API, MFT sera rattaché au CIO (Directeur des Systèmes d’Information) et joue un rôle clé dans la définition de la stratégie et roadmap IT du groupe. L'objectif est de faire évoluer, rationnaliser et homogénéiser tout le paysage applicatif pour tous les pays suite à de nombreux rachats/Carve-in. 🧩 Responsabilités principales Architecture IT Développer et maintenir l’architecture d’entreprise IT, en veillant à ce qu’elle réponde aux besoins actuels et futurs du business. Définir et mettre en œuvre les standards, guidelines, and best practices architecturales. Collaborer avec les métiers et différentes parties prenantes métier pour identifier et prioriser les améliorations architecturales. Piloter la conception (design) et l’intégration de nouveaux systèmes et technologies, en garantissant une interopérabilité fluide. Superviser l’évaluation et la sélection de solutions technologiques alignées avec les objectifs stratégiques de l’entreprise. Gestion de la plateforme d’API (Mulesoft) & & Opcon Managed File Transfer (MFT) Gérer la plateforme d’API Mulesoft et l’architecture OpCon MFT , en veillant à leur utilisation efficace pour l’intégration des différents systèmes et services IT. Collaborer avec les équipes de développement pour garantir que les APIs et les flux MFT sont conçus et mis en œuvre selon les meilleures pratiques. Identifier les opportunités d’optimisation et d’amélioration de la plateforme d’API et de la solution MFT. Reporting et analyse Préparer et présenter des rapports réguliers sur l’architecture IT, incluant la performance des plateformes API et MFT, à la direction. Analyser les indicateurs clés et les tendances pour identifier les axes d’amélioration et éclairer la prise de décision stratégique.
Freelance

Mission freelance
Data Engineer / Python / Azure MS Fabric (H/F)

Publiée le
Azure
Microsoft Fabric
PySpark

8 mois
550-600 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Data Engineer / Python / Azure pour l'un de ses clients qui opère dans le secteur de l'énergie Description 🧩 Contexte de mission Dans le cadre du renforcement de l’équipe Data, nous recherchons Data Engineer spécialisé en Python, PySpark et Microsoft Fabric , évoluant dans un environnement Azure Cloud . Les consultants seront responsables de la conception, du développement et de la mise en production de pipelines et architectures data au sein d’un contexte orienté performance, scalabilité et industrialisation. 🎯 Missions principales & rôle Le Data Engineer interviendra sur : La collecte et l’analyse des besoins métiers et utilisateurs La conception d’architectures de données robustes et scalables Le développement de pipelines de données (ingestion, transformation, modélisation) La mise en production des pipelines et leur optimisation continue La maintenance et l’évolution des architectures existantes Le respect des bonnes pratiques et standards d’ingénierie data 📌 Objectifs Concevoir une architecture data fiable, évolutive et documentée Industrialiser les pipelines pour garantir performance et qualité Assurer un haut niveau de disponibilité et de maintenabilité des solutions Accompagner les équipes internes dans la compréhension et l’usage des pipelines Contribuer à la structuration et à la maturité data de l’organisation
Freelance

Mission freelance
Data Analyst (CRM Microsoft Dynamics & Power BI)

Publiée le
CRM

6 mois
400 €
Paris, France
Télétravail partiel
Intitulé du poste Data Analyst – Microsoft Dynamics & Power BI Missions principales Maîtriser l’environnement CRM Microsoft Dynamics et comprendre les modèles de données métiers associés. Assurer la maintenance évolutive et corrective des dashboards Power BI existants (optimisation, mises à jour, qualité des visuels). Concevoir et développer de nouveaux tableaux de bord adaptés aux besoins métiers, en intégrant les indicateurs clés de performance (KPI). Mettre en place des outils et règles de contrôle garantissant la qualité, la cohérence et la fiabilité de la donnée, tant dans le CRM que dans les tableaux de bord. Collaborer avec les équipes métiers pour comprendre leurs enjeux, traduire les besoins en spécifications analytiques et assurer un pilotage par la donnée fiable. Participer à l’amélioration continue du modèle de données et des processus d’alimentation du CRM et de Power BI. Livrables attendus Dashboards Power BI fonctionnels, documentés et maintenables. Documentation data (dictionnaire, mapping, règles de gestion, contrôles qualité). Rapports réguliers sur les KPI et analyses ad hoc. Plans d’actions data quality et suivi de leur mise en œuvre. Compétences techniques Microsoft Dynamics CRM : niveau expert Microsoft Power BI : expert (DAX, Power Query, modélisation, datasets) Conception et reporting KPI : expert Maîtrise de la pensée analytique : confirmé Connaissance des bonnes pratiques de data quality et gouvernance Compétences transverses Rigueur analytique & sens critique Capacité à vulgariser et restituer clairement des insights métier Autonomie dans la gestion des besoins et délais Aptitude à collaborer avec des équipes non techniques Langues Français : bilingue Anglais : opérationnel / requis Profil recherché Expérience confirmée en Data Analysis, idéalement dans un environnement CRM Capacité à travailler sur des sujets mêlant process métier, CRM et Business Intelligence Confort avec des environnements data complexes et des enjeux de qualité de données
CDI
Freelance

Offre d'emploi
Développeur Fullstack Data Java / Python / SQL

Publiée le
Automatisation
CI/CD
Cloudera

3 ans
40k-55k €
350-550 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Description du poste Nous recherchons un Développeur Fullstack orienté Data pour intervenir dans un environnement bancaire sur des sujets de conception, développement et optimisation de solutions data. Votre rôle portera sur la mise en place et l’optimisation des bases de données, la conception et l’intégration de traitements via Python et Java, ainsi que la création d’outils permettant de suivre, fiabiliser et sécuriser les usages data. Vous aurez la responsabilité d’assurer la disponibilité, la cohérence, la qualité et la performance des systèmes, tout en veillant à leur bonne exploitation. Vous participerez également à la mise en œuvre d’outils de supervision, à la documentation technique, à l’industrialisation de scripts et aux activités de support auprès des utilisateurs. La mission s’effectue dans un contexte agile avec un fort niveau d’autonomie et de collaboration technique. Compétences techniques Python Java SQL PostgreSQL Azure Synapse / Synapse Analytics Cloudera CI/CD – Environnements DevOps Optimisation et structuration de bases de données Scripting et automatisation
Freelance

Mission freelance
Data Engineer / Expert Big Data – Cloud & On-Prem - Certifié ITIL V4 Obligatoire

Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Migration

6 mois
750-800 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe DATA/IA d’une vingtaine de personnes pour accompagner la migration des projets vers des infrastructures modernes on-prem et cloud public (AWS / GCP) ✅ Accompagner les projets dans leur migration vers des architectures modernes (AWS / GCP / on-prem). ✅ Participer à la conception et à la mise en œuvre des infrastructures Data (en lien avec les CloudOps & Architectes). ✅ Paramétrer, configurer et tester les plateformes (performances, résilience, reprise d’activité). ✅ Implémenter le monitoring et l’alerting. ✅ Rédiger les documents d’exploitation et contribuer à la montée en compétence des équipes. ✅ Participer au RUN : gestion des incidents, patching, upgrades et astreintes.
Freelance

Mission freelance
Data Engineer GCP

Publiée le
DBT
Google Cloud Platform (GCP)

18 mois
460-530 €
Rennes, Bretagne
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer GCP pour l'un de ses clients dans le secteur de la restauration à Rennes. Missions principales : Développer et maintenir des pipelines de données fiables et évolutives. Assurer un regard critique sur les données et garantir leur qualité ( quality by design ). Mettre en place des contrôles et validations sur les données, comprendre les contraintes métiers et techniques. Collaborer avec les équipes pour estimer le reste à faire , le chiffrage des tâches et la planification des sprints. Travailler dans un environnement agile (Scrum/Kanban), avec suivi dans Jira . Participer à la mise en place des bonnes pratiques DevOps : Git, CI/CD . Collaborer avec les équipes techniques et métiers pour garantir la pertinence des données. Atouts supplémentaires : Expérience industrielle ou traitement de données en temps réel (Pub/Sub). Capacité à proposer des améliorations ou innovations dans les pipelines et la qualité des données.
Freelance
CDI

Offre d'emploi
Développeur Java H/F

Publiée le
Java
Spring
Spring Batch

1 an
45k-50k €
400-420 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Vos missions principales : · Recueillir et analyser les besoins · Proposer des solutions via des technologies performantes et durables · Garantir les bonnes pratiques de développement et la qualité logicielle · Participer à l'optimisation et à la gestion des l’obsolescence des technologies employées · Garantir la faisabilité technique des projets Mais également : · Analyser l’impact des nouvelles solutions dans le système d’information · Préconiser des choix techniques · Assurer viabilité, exploitabilité, évolutivité, faisabilité économique et adéquation des solutions aux besoins · Concevoir et valider l’architecture technique du système d’information · Participer à l’intégration du projet · Apporter un support technique aux projets
Freelance

Mission freelance
Data Analyst CRM – Adobe Campaign (Lille)

Publiée le
Microsoft Power BI

1 mois
Lille, Hauts-de-France
Télétravail partiel
Bonjour à tous, Nous recherchons un Data Analyst CRM pour rejoindre une équipe basée à Lille . L’objectif de cette mission est de concevoir et livrer un maximum de dashboards Power BI , en binôme avec un collaborateur dédié à la partie CRM, afin de fournir des analyses pertinentes et exploitables pour le pilotage des activités marketing. 🔹 Expérience indispensable en CRM 🔹 Connaissance d’ Adobe Campaign fortement appréciée 🔹 Maîtrise de Power BI 🔹 Capacité à travailler en binôme et à comprendre les enjeux marketing/CRM
Freelance

Mission freelance
Ingénieur Data Power BI

Publiée le
Microsoft Power BI
Power Automate

1 an
400-550 €
Blaye, Nouvelle-Aquitaine
Le consultant Data Power BI conçoit, développe et optimise des rapports et tableaux de bord avancés en s’appuyant sur une maîtrise experte de Power BI, incluant DAX et M. Il exploite ses compétences en Python, SQL et ELK pour structurer, analyser et visualiser des données complexes, et contribue à l’automatisation des processus via PowerAutomate et PowerApps. Capable d’intégrer des données provenant d’API REST et de renforcer l’utilisation des outils collaboratifs comme SharePoint et Excel (VBA), il accompagne les équipes métiers dans la compréhension, l’exploitation et la valorisation des données.
Freelance

Mission freelance
Data Engineer GCP - Rennes

Publiée le
Agile Scrum
Apache Airflow
BigQuery

12 mois
400-540 €
35200, Rennes, Bretagne
Télétravail partiel
Contexte : Nous recherchons un Data Engineer expérimenté, pragmatique et autonome, capable de travailler sur des projets data complexes avec les bonnes pratiques agiles. Le profil idéal a déjà travaillé en mode projet, connaît le Scrum et Kanban, et sait estimer précisément la charge de travail. Profil recherché : Expérience solide en Data Engineering (pas junior). Bonne connaissance des environnements cloud, idéalement GCP . Maîtrise des outils BigQuery, DBT, Airflow, Cloud Storage . Git et CI/CD indispensables. Expérience projet avec méthodologies Agile/Scrum/Kanban , capacité à estimer le reste à faire et à planifier un sprint. Capacité à être critique sur les données et à mettre en place quality by design . Jira utilisé régulièrement pour le suivi de projet. Anglais : un plus mais pas essentiel. Expérience dans un environnement industriel ou traitement de données en temps réel (Pub/Sub) est un plus. Polyvalence et curiosité : d’autres compétences data seront appréciées. Missions principales : Conception et développement de pipelines de données robustes. Analyse critique et validation de la qualité des données. Mise en place de contrôles pour garantir l’intégrité et la fiabilité des données. Contribution à l’amélioration continue des pratiques Data Engineering et Agile de l’équipe. Processus de recrutement : Entretien avec le Tech Lead et le Chef de projet. Référencement fournisseur. Disponibilité : ASAP
Freelance

Mission freelance
Expert Talend / Talend Data Integration Specialist

Publiée le
ETL (Extract-transform-load)
Talend

12 mois
Paris, France
Télétravail partiel
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
Freelance

Mission freelance
Data Engineer GCP (Rouen)

Publiée le
Google Cloud Platform (GCP)

1 an
400-550 €
Rouen, Normandie
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients situé à Rouen, je suis à la recherche d'un Data Engineer GDP. Objet de la prestation : L’objet du présent marché est une prestation d’accompagnement : Poste : Data Engineer - GCP Niveau d’expérience : au moins 3 ans Contenu de la prestation : Au sein de la DATAFABRIC, vous intégrerez une des équipes de développement agile composées de 5 à 7 Data Engineer qui travaille en lien avec le TechLead. Vous assurerez aussi le build et le run des traitements livrés en production sur la plateforme GCP Missions principales : • Analyse, Conception et Modélisation • Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d’exploitation). • Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données • Réaliser la recette technique • Assurer la qualité avec des tests de non-régression Savoir-être : • Sens du résultat et respect de l’engagement • Capacité à travailler en équipe Suivi de la prestation : Le représentant du fournisseur et de Matmut établiront une méthode du suivi de la prestation pour préciser si la prestation est au niveau attendu selon les indicateurs de performance et le fréquence définis au début de la prestation (respect des délais, qualité des livrables, etc.).
CDI
Freelance

Offre d'emploi
Chef de Projet Technique IaaS, Data & Cloud

Publiée le
Cloud
IaaS (Infrastructure-as-a-Service)
Openshift

1 an
Île-de-France, France
Télétravail partiel
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un Chef de Projet Technique pour rejoindre une équipe spécialisée dans l’infrastructure, le cloud, la donnée, l’IA et le DevOps. MISSIONS PRINCIPALES : Piloter des projets sur les périmètres IaaS et DATA Définir les solutions cibles en collaboration avec les experts et les utilisateurs Coordonner l’ensemble des parties prenantes Structurer et animer la gouvernance des projets Établir et suivre les plans d’investissements et les budgets Identifier, analyser et gérer les risques projets Garantir la production des livrables selon la méthodologie interne
3175 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous