Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 174 résultats.
Freelance

Mission freelance
228728/Architecte GCP - Île de France

Publiée le
Google Cloud Platform (GCP)

3 mois
Île-de-France, France
Télétravail partiel
Architecte GCP - Île de France Compétences attendues Expertise technique GCP (indispensable) : Google Cloud Composer (orchestration des workflows). Google Cloud Storage (gestion et sécurisation des données). Google BigQuery (data warehouse et analytics). En tant qu’expert Google Cloud Platform (GCP), l'expert accompagnera l’équipe projet sur l’ensemble des phases – conception, réalisation et déploiement – afin de garantir l’atteinte des objectifs stratégiques : Centraliser, fiabiliser et standardiser les données RH essentielles. Faciliter la gestion des processus et ressources humaines. Améliorer la qualité et la pertinence des analyses RH et des reportings. Assurer une cohérence et une intégrité des données à l’échelle du groupe. Méthodologie projet Le projet est conduit selon une approche agile, privilégiant : L’adaptabilité face aux besoins métier, La collaboration transverse, L’amélioration continue. 👉 Une expérience dans un contexte agile (Scrum, SAFe ou équivalent) est donc un atout recherché. Compétences attendues Expertise technique GCP (indispensable) : Google Cloud Composer (orchestration des workflows). Google Cloud Storage (gestion et sécurisation des données). Google BigQuery (data warehouse et analytics). Compétences complémentaires : Power BI : visualisation et analyse des données RH. Data engineering / ETL : conception et optimisation de flux de données. Sensibilité à la qualité et gouvernance des données . Profil recherché Expérience confirmée sur des projets de migration, intégration ou fiabilisation de données sous GCP. Capacité à accompagner les équipes projet dans un rôle à la fois technique et conseil . Bon relationnel et capacité à vulgariser les aspects techniques auprès des métiers RH. Objectifs et livrables Architecture GCP qui répond aux attente du contexte Livrables techniques : DAT, DEX, etc. Accompagnement des développements Compétences demandées Compétences Niveau de compétence Google Cloud Composer Expert Google Cloud Storage Expert BIGQUERY Expert Apache Airflow Expert
CDI

Offre d'emploi
Data engineer (H/F)

Publiée le

35k-40k €
Lille, Hauts-de-France
Télétravail partiel
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Freelance

Mission freelance
Chef de projet technique - IaaS et Data

Publiée le
IaaS (Infrastructure-as-a-Service)

12 mois
660 €
Yvelines, France
Télétravail partiel
Notre client, un établissement financier majeur, recherche un CP IaaS et Data pour renforcer son équipe Cette mission est au sein du centre d’expertise pour l’infrastructure, le cloud, la donnée, l’IA et le DevOps. Il accompagne les projets de transformation numérique, garantit la performance, la sécurité et l’innovation, et propose des solutions adaptées aux besoins métiers et applicatifs. La mission consiste à piloter des projets dans le cadre de création d’offre produit, de traitement d’obsolescence ou de mise en conformité (réglementaire, sécurité, amélioration de QoS). - Piloter des projets sur le périmètre IaaS et DATA - Définir les solutions cibles, en collaboration avec les experts, et en lien avec les besoins utilisateurs -Coordonner l’ensemble des parties prenantes -Structurer et animer la gouvernance des projets -Etablir les plans d’investissements et le suivi financier des projets, en lien avec le Contrôle de Gestion - Gérer les risques projets Livrables - Rédaction des notes de cadrage ; présentation aux parties prenantes (sponsors, Chief Platform Officer, PM, PO) et aux différents comités - Animation des comités de suivi - Suivi opérationnel de l’avancement des projets (respect des délais, des jalons …) - Suivi des risques et des plans d’actions associés - Suivi rigoureux des budgets alloués - Garant de la livraison de tous les documents conformément à la méthodologie Projets Environnement technique Cloud Infrastructures (VMWare, OpenStack, Openshift), OS Factory (Windows, Linux, Unix), Containers (Docker, Kubernetes), plateformes Data (Cloudera, MAPR, Data Cloud GCP, …), Data Storage (bloc, fichier, objet)
Freelance

Mission freelance
Lead Data Engineer Senior

Publiée le

24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Freelance
CDI

Offre d'emploi
Machine Learning Engineering

Publiée le
Agile Scrum
Big Data
CI/CD

12 mois
40k-48k €
500-570 €
Paris, France
Télétravail partiel
Afin d’améliorer la personnalisation de l’expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. La prestation de l'équipe : Créer les premiers cas d’usage en lien avec la personnalisation de l’expérience utilisateur basés sur de la recommandation utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances Prestations attendues : En interaction avec les membres de l’équipe, la prestation consistera à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l’évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Freelance

Mission freelance
Data Engineer / Data Analyst

Publiée le
BigQuery
CI/CD
Google Cloud Platform (GCP)

2 ans
420-500 €
Lille, Hauts-de-France
Télétravail partiel
La mission consiste à : - Maîtrise de la donnée et garant de la qualité de son utilisation - Analyser les besoins des utilisateurs et proposer des solutions innovantes - Développer les solutions data - Maintenir les solutions existantes - Mettre en oeuvre des pipelines de données Compétences attendues : - Expériences significatives comme Data Engineer / Data Analyst - Maîtrise de SQL, Python, PowerBI, GCP, CI/CD, Terraform, Github et les ETL/ELT - Anglais un + Mission basée sur la métropole lilloise avec télétravail hybride
Freelance
CDD

Offre d'emploi
Lead Consultant Machine Learning Engineering H/F

Publiée le
GitLab CI
Google Cloud Platform (GCP)
Python

12 mois
40k-45k €
600-680 €
Île-de-France, France
Télétravail partiel
En interaction avec les membres de l’équipe, vos missions consisteront à : • Définir l'architecture et la feuille de route technique, en tenant compte des exigences de performance, de scalabilité et de sécurité • Accompagner les membres de l’équipe pour garantir la qualité du code et du modèle • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine • Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Freelance

Mission freelance
Data Engineer H/F

Publiée le
Azure

3 ans
Île-de-France, France
Description : Livrables : • Concevoir et mettre en œuvre des solutions data pour soutenir les objectifs business. • Analyser et interpréter des données complexes afin d’en extraire des informations exploitables. • Collaborer avec des équipes inter fonctionnelles pour identifier et résoudre les défis liés aux données. • Développer et maintenir des pipelines de données, des modèles et des outils de reporting. • Garantir la qualité, l’intégrité et la sécurité des données tout au long de leur cycle de vie. • Fournir une expertise technique et des conseils aux parties prenantes pour soutenir les prises de décisions fondées sur les données. Expertise : • Diplôme de niveau Bachelor ou Master en informatique, data science ou domaine connexe. • Plus de 5 ans d’expérience en data engineering, data analytics ou rôle similaire. • Expérience avérée dans la livraison de solutions data dans un environnement dynamique. • Maîtrise des technologies et architectures data modernes, telles que les plateformes cloud, les frameworks big data et les solutions de data warehousing. • Expertise en langages de programmation tels que Python, SQL et Spark. • Maîtrise de la modélisation de données, des processus ETL et des techniques de transformation de données. • Expertise des plateformes cloud orientées data (ex. : AWS, Azure, Google Cloud). • Maîtrise des outils de visualisation et de reporting (ex. : Power BI, Tableau). • Connaissance approfondie des bonnes pratiques en matière de sécurité, gouvernance et conformité des données.
Offre premium
CDI

Offre d'emploi
Data Architecte Databricks - Paris

Publiée le
Databricks

65k-80k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance

Mission freelance
Profil Data hybride / Alteryx / Power BI

Publiée le
Alteryx
Google Cloud Platform (GCP)
Microsoft Power BI

3 ans
400-500 €
Montpellier, Occitanie
Télétravail partiel
Pour l’un de nos clients grand compte, nous recherchons un Profil Data hybride ALTERYX / Power BI capable à la fois de challenger les métiers fonctionnellement (recueil et reformulation du besoin, rédaction de specs, validation) et d’assurer une partie technique / développement (ETL, requêtage, reporting). Être l’interface entre les utilisateurs métiers et l’équipe technique, traduire les besoins en spécifications exploitables, concevoir et développer les traitements et livrables data (ETL, requêtes, tableaux de bord), assurer la qualité et la maintenabilité des livrables. Responsabilités Recueillir, clarifier et challenger les besoins métiers ; réécrire et structurer les demandes pour les rendre exploitables. Rédiger les spécifications fonctionnelles et techniques (US, critères d’acceptation). Concevoir et développer des flux ETL / transformations avec Alteryx . Modéliser, optimiser et maintenir des requêtes et procédures sur Oracle (SQL / PL/SQL). Développer et publier des Dashboard Power BI (modèles tabulaires, DAX, performance). Développer des applications simples ou prototypes avec PowerApps (souhaité).
Freelance

Mission freelance
Cloud GenAI Architect h/f

Publiée le
Cloud
IA Générative

3 mois
450-760 €
Paris, France
Télétravail partiel
Contribuer aux travaux d’architecture d’entreprise (EA) au niveau Groupe. Participer à la définition et à l’évolution du Cloud & GenAI Architecture Blueprint. Apporter une expertise transversale sur les technologies Cloud (Azure / GCP / AWS) et les approches GenAI (LLM, RAG, vector DB, sécurité, gouvernance). Évaluer les solutions, produire des synthèses, recommandations et documents d’architecture. Interagir avec les équipes globales : IT Strategy, Cloud, Data, Security, métiers. Vulgariser et synthétiser les enjeux pour les dirigeants et parties prenantes.
CDI

Offre d'emploi
Data Engineer NiFi

Publiée le
Apache NiFi

40k-65k €
Île-de-France, France
Télétravail partiel
En tant que Data Engineer chez Smile, vous ferez partie de notre aventure où chaque jour est une nouvelle occasion de construire des solutions qui dépassent les attentes de nos clients (et les vôtres !)🧑‍🚀👩‍🚀 Ce que vous ferez en tant que Data Engineer chez Smile ? Conception et développement de pipelines de données (ETL/ELT). Maintenance et optimisation de l'infrastructure de données. Mise en place de solutions de stockage et de traitement de données (data warehouses, data lakes). Collaboration avec les équipes de data science et d'analyse. Automatisation des processus de gestion des données. Veille technologique sur les outils et technologies de données. Côté technique justement, vous évoluerez dans un environnement Open Source ☕: Ingénierie des données et Cloud : ETL/ELT, Big Data (Spark, Hadoop), plateformes cloud (AWS, Azure, GCP), orchestration (Kubernetes, Docker). Analyse de données et Business Intelligence : Visualisation (Power BI, Tableau), reporting, analyse prédictive, bases de données SQL/NoSQL. Développement logiciel et programmation : Développement backend, langages (Python, Java, Scala, R), API, intégration continue (CI/CD). Recherche et indexation de données : Moteurs de recherche (Elasticsearch, Solr), recherche full-text, optimisation de la performance des requêtes. Vous intègrerez un environnement stimulant où votre expertise et votre passion seront reconnues 💥. Nous vous invitons à participer à des projets captivants et à contribuer à notre croissance commune🌱. Smile s’engage pour un environnement où la diversité est une force et l’inclusion, un pilier. Ici, chaque talent est reconnu, respecté et encouragé à aller plus loin.
Freelance

Mission freelance
data scientist

Publiée le
Data science

12 mois
400-550 €
Paris, France
Télétravail partiel
Prise en charge la réalisation des études et du développement des cas d’usage d’intelligence artificielle identifiés dans le cadre de plan stratégique mais aussi de besoins ad hoc remontés pour améliorer notamment l’efficacité opérationnelle. Dans ce cadre les missions et activités principales sont : • Identifier, tester et implémenter des approches permettant d’exploiter des technologies de machine learning et d’IA générative au service des processus risques • Explorer et exploiter les données internes • Faire évoluer les applicatifs IA existants (notamment applicatif de production GCP sur un cas d’usage de ciblage) • Echanger avec les équipes DSI et autres équipes de Data Scientists du Groupe • Assurer une veille technologique sur les évolutions des technologies d’IA générative
Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

Publiée le
BI

24 mois
250-500 €
Paris, France
Télétravail partiel
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Freelance
CDD

Offre d'emploi
Consultant en Machine Learning H/F

Publiée le
Gitlab
GitLab CI
Google Cloud Platform (GCP)

12 mois
50k-70k €
500-570 €
Île-de-France, France
Télétravail partiel
En interaction avec les membres de l’équipe, la prestation consistera à : • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine • Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Freelance
CDI

Offre d'emploi
skiils | DevOps Kubernetes/GCP - Full remote (Maghreb)

Publiée le
Google Cloud Platform (GCP)
Kubernetes

3 ans
10k-26k €
100-280 €
Safi, Maroc
Télétravail 100%
Nous recherchons un DevOps Senior (H/F) d’un grand acteur international du retail. 🎯 L’objectif ? Contribuer à la construction, la fiabilité et l’industrialisation de la plateforme Data du groupe, en apportant ton expertise sur les environnements Kubernetes et Google Cloud Platform (GCP) . Tu évolueras dans un environnement technique exigeant et collaboratif, au cœur de la transformation data-driven de l’entreprise. 🚀 Tes missions principales : Participer à la construction et l’évolution de la plateforme Data sur GCP Mettre en place et maintenir les pipelines d’intégration et de déploiement continu (CI/CD) Assurer la stabilité, la sécurité et la performance de l’infrastructure Kubernetes Gérer les déploiements d’applications et services dans le cloud Automatiser les processus et améliorer la scalabilité de la plateforme Collaborer avec les équipes Data, Cloud et Sécurité pour garantir la cohérence globale des environnements Surveiller, diagnostiquer et résoudre les incidents liés à l’infrastructure Être force de proposition pour l’amélioration continue des outils et des pratiques DevOps 🔧 Environnement technique : Cloud & Infrastructure : Google Cloud Platform (GCP), Kubernetes (GKE) Outils CI/CD : GitLab CI, Jenkins, Terraform, Helm Monitoring & Logging : Prometheus, Grafana, Stackdriver Langages / Scripting : Bash, Python, YAML Messaging / Streaming : Kafka (atout apprécié, non obligatoire) Méthodologie : Agile / Scrum
174 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous