Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 557 résultats.
Freelance

Mission freelance
Tech Lead Data Engineer - IoT / Java & Cloud

Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)

12 mois
720-730 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Tech Lead Data IoT – Java & Cloud" pour un client dans le secteur du retail. Description⚡ Le Contexte Au sein d'une plateforme IoT gérant des millions d'objets connectés (Smart Devices, vélos, équipements sportifs), nous recherchons le Référent Technique Data . Il ne s'agit pas d'un poste de Data Engineer classique qui ne fait que des pipelines, mais d'un rôle de Software Engineer / Tech Lead spécialisé dans le traitement de la donnée. Vous êtes le "Tech Lead Data" unique de la plateforme : vous portez la responsabilité technique et architecturale de tout ce qui touche à la donnée au sein de l'écosystème IoT. 🎯 Votre Mission : Architecturer et Construire le Backend Data Votre rôle est central : vous construisez le moteur qui ingère, traite et structure les événements remontés par les objets connectés. Vous êtes garant de la cohérence de la donnée, du capteur jusqu'au stockage. 1. Développement Backend & Traitement IoT (80-90% du poste) Développement Java : Concevoir et développer les briques Backend chargées du traitement des flux (Temps Réel & Événementiel). Gestion de la complexité IoT : Gérer les problématiques de connectivité instable. Exemple concret : Reconstituer une session de sport ("Ride") complète même en cas de perte de réseau, gérer les règles de début/fin de session automatiquement. Privacy by Design : Intégrer les contraintes RGPD et le respect des consentements utilisateurs directement dans l'architecture de collecte (filtrage à la source, anonymisation). 2. Architecture & Lead Data Référent Technique : Vous êtes le point de contact unique pour toutes les décisions impactant la data sur la plateforme. Conseil & Gouvernance : Vous auditez et conseillez les autres équipes Backend. Si une feature touche à la structure de la donnée, vous intervenez pour valider le modèle. Modélisation : Définir les modèles de données pour garantir leur exploitabilité future. 3. Analytics & Maintenance (10% du poste) Maintenir les flux ETL existants et les jobs d'analytics. Intervenir ponctuellement sur du Spark / Scala pour des besoins de BI ou de Data Science. 🛠 La Stack Technique Un environnement Multi-Cloud et moderne : Cloud Principal : GCP (Google Cloud Platform). IoT : AWS IoT Core (gestion de la flotte et connectivité). Langage Principal : Java (Expertise demandée). Analytics/Data : Databricks , Spark, Scala.
Freelance

Mission freelance
Data BI Analyst (Power BI / GCP / ServiceNow) - Anglophone - 92 - Janvier

Publiée le
BigQuery
Google Cloud Platform (GCP)
Microsoft Power BI

1 an
450-500 €
Nanterre, Île-de-France
Télétravail partiel
🚀 Data BI Analyst (Power BI / GCP / ServiceNow) - Anglophone - 92 🚀 𝗗𝗲́𝗺𝗮𝗿𝗿𝗮𝗴𝗲 𝗝𝗮𝗻𝘃𝗶𝗲𝗿 - 𝗧𝗲𝗺𝗽𝘀 𝗽𝗹𝗲𝗶𝗻 - 𝟯 𝗮𝗻𝘀 𝗱𝗲 𝗺𝗶𝘀𝘀𝗶𝗼𝗻 𝟵𝟮 - 𝟯 𝗷𝗼𝘂𝗿𝘀 𝘀𝘂𝗿 𝘀𝗶𝘁𝗲 𝗽𝗮𝗿 𝘀𝗲𝗺𝗮𝗶𝗻𝗲 Je recherche un BI Analyst pour rejoindre un grand programme de transformation au sein d’un groupe international. Objectif : transformer des datasets complexes en dashboards Power BI “pixel-perfect”, clairs, esthétiques et actionnables pour le pilotage projet & programme. 🔧 Environnement : Power BI • GCP • BigQuery • ServiceNow (ITBM/SPM) 🎯 𝗥𝗲𝘀𝗽𝗼𝗻𝘀𝗮𝗯𝗶𝗹𝗶𝘁𝗲́𝘀 Concevoir des dashboards Power BI avancés (UX, storytelling, interactions) Interroger & analyser les données dans BigQuery Exploiter en profondeur les données ServiceNow (must-have) Collaborer avec le Data Engineer & le Business Analyst Garantir une qualité de données irréprochable #Freelance #DataAnalyst #PowerBI #GCP #BigQuery #ServiceNow #BI
CDI
Freelance

Offre d'emploi
Data web analyst

Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
Microsoft SQL Server

1 an
43k-45k €
430-500 €
Île-de-France, France
Télétravail partiel
L’équipe Data Science recherche une prestation de Data Science Analyse - Edito & Produit. Une expérience de 2 ans est requise pour cette prestation. Prestations attendues : Déroulement des analyses : - Être à l’écoute et comprendre les besoins métier, - Proposer des méthodes et des axes d’analyses pertinents pour y répondre, - Tirer des enseignements et faire des recommandations en se basant sur les résultats de l’analyse - Synthétiser les résultats, les mettre en forme (Excel, Power Point) et les restituer à l’oral aux équipes métier - Communiquer régulièrement sur les résultats des analyses réalisées à l’ensemble de la direction Analyses pour enrichir l’animation et la stratégie éditoriales : - Profiling utilisateurs : par catégories de contenus, programmes, par chaines, par device … - Analyses de parcours : programmes ou catégories recrutants, fidélisants - Segmentation des utilisateurs selon leurs préférences de contenus, les moments de consommation, … Analyses pour enrichir la stratégie produit : - Audit des données issues des nouvelles fonctionnalités - Analyse de l’usage des fonctionnalités, profiling - Analyse de l’impact de nouvelles fonctionnalités sur le comportement utilisateur : recrutement, engagement - Analyse des parcours des utilisateurs sur les différentes offres digitales : entrée sur la plateforme, accès aux contenus, … Dashboards : - Être référent sur les dashboards de connaissance utilisateurs - Garantir la maintenance et la bonne mise à jour des dashboards existants - Ajustement des existants (nouveaux indicateurs, modifications de calculs,…) - Être force de proposition sur les évolutions des dashboards existants - Créer de nouveaux Dashboards : prise de besoin avec le métier, identification des indicateurs pertinents, maquette de visualisation, définition de la structure de la donnée, création du dashboard Power BI - Communiquer sur les dashboards, accompagner les équipes métiers dans leur utilisation, mettre en place des démos, … Expertises demandées pour la réalisation de la prestation : Pour mener à bien la prestation, le prestataire devra maitriser les expertises suivantes : · Au moins 2 ans d’expérience sur des analyses de connaissance utilisateurs ou clients dans les secteurs de l’audiovisuel, du retail ou du ecommerce · Maîtrise avancée de SQL (au moins 2 ans d’expérience en SQL) · Maîtrise de Google Cloud Platform et maîtrise de Big Query · Connaissance de Power Bi · Connaissance des données issues de Piano Analytics · Connaissance de l’interface Piano Analytics · Connaissance de la mesure Mediametrie et des données Nielsen · Expérience dans le secteur audiovisuel sur des problématiques éditoriales · Expérience dans le secteur digital, ecommerce · Goût pour les contenus audiovisuels / vidéos · Capacité d’analyse, de synthétisation et de vulgarisation
Freelance

Mission freelance
Chef de Projet Data Science (H/F)

Publiée le
BigQuery
Data science
Gestion de projet

210 jours
610-800 €
Île-de-France, France
Télétravail partiel
Un grand groupe français du secteur des médias et du numérique recherche un Chef de Projet Data Science senior pour coordonner les initiatives data entre équipes techniques et directions métiers, afin de maximiser l'exploitation de la donnée comme levier de croissance. Missions principales : Assurer la cohérence entre les pôles Data (Technique, Intelligence, Management, Gouvernance) Être le point d'entrée pour les directions métiers (Produit, Editorial, Marketing, Publicité) Recueillir et formaliser les besoins data Animer ateliers et instances projets Produire le reporting et suivre les avancées
Freelance
CDI

Offre d'emploi
Data Engineer (15)

Publiée le
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-470 €
Île-de-France, France
Télétravail partiel
Contexte de la Mission Rattachement Direction Data (Direction du Numérique). Intégration à l'équipe Gold Pilotage (PO + 2 DE) qui alimente le pilotage des offres numériques via le produit Data4All. Stack technologique : Python, SQL, dbt, BigQuery, Airflow, Terraform/Terragrunt, autres services GCP. Activités Attendues Maintenir et faire évoluer Data4All et les dispositifs de l'équipe ; accompagner les utilisateurs ; mettre en place le contrôle qualité des données. Concevoir et maintenir des modèles et pipelines robustes et scalables ; organiser et structurer le stockage. Mettre en place et maintenir des infrastructures scalables, sécurité et stabilité des environnements, workflows CI/CD. Gouvernance et documentation (qualité, fiabilité, intégrité), partage de bonnes pratiques et veille ; participation aux instances Data Ingénieurs.
Freelance
CDI

Offre d'emploi
Lead Développeur Fullstack Vue.js /Node.js (H/F)

Publiée le
Google Cloud Platform (GCP)
Node.js
TypeScript

3 mois
40k-45k €
100-380 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte Dans le cadre d’un projet de refonte complète d’une application stratégique, nous recherchons un.e Lead Développeur.euse Front spécialisé.e Vue.js, disposant également de compétences solides en back-end Node.js / TypeScript. Le.la consultant.e interviendra au sein d’une équipe agile et jouera un rôle central dans l’orientation technique et la structuration du delivery. Missions Piloter les choix techniques sur la partie front Vue.js et contribuer aux développements. Intervenir sur le back-end (Node.js / TypeScript) pour garantir la cohérence globale de l’architecture. Participer à la conception, au design technique et à la revue de code. Encadrer et orienter une équipe de développeurs : bonnes pratiques, performance, qualité de code. Collaborer avec les équipes produit afin d’apporter une vision métier et challenger les besoins. Contribuer à la mise en place de pipelines, bonnes pratiques CI/CD et outillage du projet. Accompagner la migration et l’optimisation sur l’infrastructure cloud (GCP).
Freelance
CDI

Offre d'emploi
Data Engineer (21)

Publiée le
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-660 €
Île-de-France, France
Télétravail partiel
Descriptif du poste La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Au sein de l'équipe Bronze, la prestation se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d'un product owner, d'un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l'orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l'infrastructure. Prestations attendues Prestation de cette équipe Collecter et centraliser les différentes sources de données non homogènes Assurer la conformité et la sécurité des données Participer aux initiatives de gouvernance des données Prestation en data engineering En interaction avec les membres de l'équipe, la prestation consiste à : Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe Construire et maintenir de pipelines data robustes et scalables Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l'évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances de data engineering Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine
Freelance
CDI

Offre d'emploi
Data Engineer (14)

Publiée le
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Informations Générales Contexte de la Mission Rattachement Direction Data (Direction du Numérique). Intégration à l'équipe Gold Pilotage (PO + 2 Data Engineers) en charge de la mise à disposition des données pour le pilotage des offres numériques via le produit Data4All. Stack : Python, SQL, dbt, BigQuery, Airflow, Terraform/Terragrunt, services GCP. Activités Attendues Maintenir et faire évoluer Data4All et les dispositifs de l'équipe ; qualité des données et support aux utilisateurs. Concevoir & maintenir des modèles de données et pipelines robustes et scalables ; organiser/structurer le stockage. Mettre en place et maintenir des infrastructures scalables, assurer sécurité/stabilité des environnements, workflows CI/CD. Contribuer à la gouvernance (qualité, fiabilité, intégrité), documentation et veille ; participation aux instances Data Ingénieurs.
CDI

Offre d'emploi
Ingénieur Cloud GCP H/F

Publiée le

44k-47k €
Toulouse, Occitanie
Télétravail partiel
Ta mission En tant qu’Ingénieur Cloud spécialisé GCP, vous interviendrez sur l’exploitation avancée, l’évolution et l’industrialisation des environnements Cloud. Vos principales responsabilités seront : Participer aux évolutions des landing zones GCP et des infrastructures Cloud existantes. Contribuer à la mise en œuvre de solutions d’hybridation entre les environnements on-premise et GCP. Accompagner la transition des services vers des solutions Cloud de confiance. Assurer la relation opérationnelle avec Google Cloud et les autres providers. Intégrer et valider les nouveaux services Cloud au catalogue interne. Fournir un support technique avancé aux projets utilisant GCP. Collaborer avec l’équipe FinOps pour optimiser les consommations et maîtriser les coûts cloud.
Freelance

Mission freelance
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP

Publiée le
Azure
Cloud

24 mois
325-650 €
Paris, France
Télétravail partiel
Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess
Freelance
CDI

Offre d'emploi
Expert Sécurité Cloud spécialisé en IAM H/F

Publiée le
AWS Cloud
CI/CD
Google Cloud Platform (GCP)

36 mois
50k-65k €
530-600 €
Paris, France
Télétravail partiel
Nous recherchons un expert Sécurité Cloud spécialisé en Identity and Access Management (IAM) pour intervenir sur un projet stratégique à l’échelle internationale. Intégré à une équipe d’experts sécurité, vous serez chargé d’auditer les configurations IAM existantes sur les environnements GCP, Azure et AWS, d’identifier les vulnérabilités, et de concevoir une stratégie IAM robuste et conforme aux standards de sécurité du groupe. Vous participerez à la mise en œuvre de contrôles via des outils tels que AWS SCP et GCP Deny Policy, tout en accompagnant les équipes projets dans la compréhension et l’adoption des bonnes pratiques IAM.
CDI

Offre d'emploi
Data Engineer – Intégration & Cloud (GCP / BigQuery / Talend)

Publiée le
API REST
BigQuery
Microsoft Power BI

40k-45k €
Paris, France
Nous recherchons un Data Engineer pour intervenir sur un projet stratégique d’intégration et de valorisation de données au sein d’un environnement Cloud moderne. Le consultant interviendra sur la création, l’optimisation et la maintenance de pipelines data entre plusieurs plateformes internes, avec un fort niveau d’autonomie technique. Concevoir, développer et maintenir des flux de données entre différentes sources (API REST, Cloud, bases SQL). Mettre en place des traitements d’ingestion, transformation, normalisation et contrôle qualité des données. Développer et optimiser des pipelines dans GCP / BigQuery . Construire et maintenir des jobs Talend pour l’intégration et l’automatisation des traitements. Automatiser et industrialiser les workflows via des scripts Shell / Bash . Contribuer à la création et à l’optimisation de dashboards Power BI (KPI, dataviz). Garantir la qualité, la performance et la conformité des données. Documenter les flux, rédiger les spécifications et collaborer avec les équipes métiers et techniques. Versionner les développements via GitLab et respecter les bonnes pratiques CI/CD.
Freelance

Mission freelance
Concepteur Développeur Big Data

Publiée le
Apache Spark
AWS Cloud
Azure

12 mois
400 €
Courbevoie, Île-de-France
Télétravail partiel
Mission Concepteur Développeur Big Data – Société de l'Énergie Localisation : Courbevoie (3 jours/semaine sur site) Tarif max : 400€/jour Démarrage : 05/01/2026 Durée : 12 mois (fin 04/01/2027) – prolongeable Expérience requise : 4-5 ans minimum Prestations principales : Analyse besoins RH/Finance + rédaction spécifications techniques Conception/développement pipelines ETL/ELT (Spark, Hadoop, Databricks, Snowflake) Intégration sources données/API + contrôle qualité Déploiement cloud (AWS/Azure/GCP) ou clusters Hadoop/Spark Optimisation performances (partitionnement, tuning clusters) Tests unitaires/intégration + revues code Maintenance évolutive, support incidents, veille techno Compétences obligatoires : Big Data, Hadoop, Spark, Python PostgreSQL, Databricks Livrables : Spécifications techniques + diagrammes Code source/scripts + tests complets Documentation exploitation + rapports performances Plan déploiement/rollback Cette mission essentielle vise à confier à un Ingénieur Data expérimenté la responsabilité complète du cycle de vie des solutions de traitement de données pour les domaines RH et Finance . Le professionnel doit maîtriser les technologies Big Data (Spark, Hadoop) , les plateformes analytiques (Databricks, Snowflake) et les environnements Cloud (AWS, Azure, GCP) , afin de garantir la livraison de systèmes ETL/ELT performants, sécurisés et alignés sur les objectifs business.
Freelance

Mission freelance
Data Scientist Confirmé / sénior - Temps plein

Publiée le
BigQuery
Google Cloud Platform (GCP)

6 mois
Paris, France
Télétravail partiel
Nous recherchons un·e Data Scientist confirmé·e / senior pour rejoindre une squad Supply Chain composée de 5 Data Scientists. L’objectif est de capitaliser sur des solutions IA déjà existantes et d’étendre leur périmètre afin de répondre à de nouveaux enjeux métiers. Missions principales 💡 Collection Structure & Assortment Concevoir des outils d’analyse avancée et/ou de simulation pour évaluer l’assortiment actuel (showroom, catalogue). Déterminer des quantités d’achat optimales permettant de couvrir les besoins du marché et d’atteindre les objectifs de ventes. 📉 Depletion Path Développer des modèles d’analyse pour identifier les produits à retirer progressivement de l’assortiment retail et définir les canaux de sortie adéquats. Analyser l’historique des assortiments afin de démontrer la possibilité de générer un revenu similaire avec un nombre réduit de références (SKUs). 🔀 Stock Rebalancing Concevoir des approches algorithmiques permettant de relocaliser les stocks sous-performants vers des points de vente à fort potentiel de vente. Responsabilités Explorer, analyser et modéliser des données complexes à fort volume. Construire des pipelines de données robustes et industrialisés. Améliorer et enrichir les briques IA existantes afin de traiter de nouveaux cas d’usage. Interagir avec les équipes métiers pour comprendre les enjeux opérationnels et proposer des solutions pragmatiques. Documenter et partager les résultats de manière claire, structurée et pédagogique.
Freelance

Mission freelance
Architecte Technique Réseaux Cloud (GCP) – Network Security & Availability

Publiée le
Architecture
Google Cloud Platform (GCP)
IAC

3 ans
160-550 €
Lille, Hauts-de-France
Missions principales Conception & architecture : définir les architectures et standards des environnements réseau (on‑prem et cloud), en cohérence avec l’urbanisme SI et l’existant Produits self‑service & automatisation : concevoir des API et outillages pour automatiser les changements (infra as code, pipelines), afin de délivrer des produits réseau self‑service Run & support N3 : assurer le support de niveau 3 sur des problèmes réseau complexes, contribuer au run et à l’amélioration continue de la disponibilité et de la sécurité Industrialisation & automatisation des opérations récurrentes (scripts, modules Terraform, Python). Gouvernance & référentiels techniques : définir/tenir à jour le référentiel (outils, procédures, normes, sécurité) et standards techniques réseau. Études & préconisations : analyser l’impact des nouvelles solutions, préconiser des choix techniques , organiser la veille et promouvoir les bonnes pratiques d’architecture auprès des équipes
Freelance

Mission freelance
Administrer moteurs bases de données et plateformes data

Publiée le
Google Cloud Platform (GCP)
Oracle
PostgreSQL

1 an
370-390 €
Tours, Centre-Val de Loire
Télétravail partiel
Missions principales L’ingénieur de Production data assure : L’administration, la sauvegarde, la restauration et l’optimisation de bases de données et plateformes data dans le respect des processus client on premise et cloud. La gestion des incidents et participe à la résolution des problèmes Installation, configuration, maintenance et évolution des plateformes (Greenplum, couchbase et elasticsearch, etc) Maintien en conditions opérationnelles des plateformes Suivi et amélioration des performances (mémoire, disques, index, requêtes), Stratégies de sauvegarde, restauration et supervision La gestion des accès et création des comptes autorisés à se connecter aux plateformes De la veille technologique La gestion documentaire du périmètre Astreinte
3557 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous