Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 475 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer – Plateforme Data AWS / Snowflake

EterniTech
Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 mois
Magny-les-Hameaux, Île-de-France
Description du besoin : Data Engineer – Plateforme Data AWS / Snowflake Client : Grand Groupe Industriel International Localisation : Magny-les-Hameaux (78) + déplacements ponctuels Malakoff (92) Télétravail partiel : 2 jours / semaine Démarrage idéal : ASAP Information de type C3 - Contexte industriel ? Contexte Dans le cadre de l’évolution de sa plateforme Data, un grand groupe industriel souhaite renforcer son dispositif avec un profil senior spécialisé en orchestration de pipelines de données, avec une expertise forte sur Apache Airflow. Le client dispose d’un écosystème data déjà en place (AWS / Data Lake / Snowflake) et cherche à améliorer la fiabilité, la scalabilité et l’industrialisation des traitements. L’objectif est d’intégrer un profil capable de concevoir et structurer les workflows data, et non simplement d’utiliser Airflow pour exécuter des jobs existants. ? Objectif de la mission Le client recherche un Data Engineer senior avec une expertise avancée sur Airflow, capable de : -concevoir et développer des DAGs complexes -structurer l’enchaînement des traitements de données -gérer les dépendances entre pipelines -implémenter des stratégies de gestion des erreurs, retry et reprise -optimiser l’orchestration et la planification des workflows Le consultant interviendra sur la fiabilisation et l’industrialisation des pipelines data, avec une forte autonomie dans la conception des solutions. ? Prestations attendues ? Orchestration & Airflow (cœur de mission) Conception et développement de DAGs Airflow complexes Structuration des workflows data et gestion des dépendances Mise en place de stratégies de retry, reprise et gestion des erreurs Optimisation du scheduling et des performances des pipelines Industrialisation des workflows ? Data Engineering & intégration Intégration et orchestration de pipelines batch et temps réel Collaboration avec les équipes Data (Data Engineers / Data Scientists) Contribution à l’architecture globale des pipelines ? Cloud & environnement technique Intégration dans un environnement AWS Data Lake Interaction avec les services data (stockage, compute, etc.) Automatisation et bonnes pratiques de développement ? Environnement technique Airflow (expertise avancée requise) Python AWS (S3, Glue, etc.) Data Lake / Snowflake CI/CD / Terraform (apprécié) ? Profil recherché ? Expérience 5+ ans en Data Engineering Expérience significative sur Airflow en production Expérience sur des environnements data complexes ? Compétences indispensables Airflow avancé (design de DAGs, orchestration complexe) Python Conception de pipelines data Gestion des dépendances et workflows ? Compétences appréciées AWS / Data Lake Terraform / CI/CD Snowflake ? Points clés (critères éliminatoires) Profil ayant utilisé Airflow uniquement comme outil de déclenchement ? Absence d’expérience en conception de DAGs ? Pas de maîtrise de la logique d’orchestration ? ? Profil idéal Un profil capable de penser et concevoir une orchestration complète de pipelines data, avec une vraie maîtrise des mécaniques internes d’Airflow, et une capacité à intervenir en autonomie sur des environnements existants.naires Communication claire et structurée
Freelance

Mission freelance
Un Elastic Engineer sur Saint Quentin de Yvelines

Almatek
Publiée le
Elasticsearch

6 mois
Yvelines, France
En tant que Elastic Engineer est responsable de la conception, du déploiement et de la maintenance des solutions basées sur la stack Elastic (Elasticsearch, Logstash, Kibana, Beats) via des plateformes d’orchestrations Elastic Cloud Enterprise et Nomad/Consul. Il garanti la disponibilité, les performances et la sécurité de l'infrastructure sous-jacente. Il ne gère pas le contenu des données ni les cas d'usage métier. Voici les principales responsabilités : Enjeux de plateforme Fourniture de service : • Mise à disposition de clusters Elasticsearch à la demande • Provisioning automatisé pour les équipes consommatrices • Catalogue de services avec différents niveaux de performance • SLA de disponibilité et de performance garantis Scalabilité et élasticité : • Dimensionnement des clusters selon la charge • Gestion des pics de trafic et de volumétrie • Optimisation des ressources compute et storage • Planification de capacité à moyen/long terme Sécurité et isolation : • Isolation multi-tenant entre les différents projets • Gestion des certificats et de l'authentification • Contrôle d'accès au niveau plateforme Responsabilités techniques Administration ECE : • Installation et configuration d'Elastic Cloud Enterprise • Gestion des allocators et des zones de disponibilité • Monitoring de la santé de la plateforme ECE • Mise à jour des versions ECE et des templates de déploiement Gestion du cycle de vie : • Déploiement automatisé de nouveaux clusters • Gestion des montées de version Elastic Stack • Sauvegarde et restauration au niveau plateforme • Archivage et suppression des clusters obsolètes Intégration infrastructure : • Intégration avec les systèmes de virtualisation/conteneurisation • Configuration réseau et load balancing • Intégration avec les solutions de monitoring infrastructure • Gestion des certificats Interface avec les équipes Support aux équipes utilisatrices : • Formation sur les bonnes pratiques d'utilisation • Support technique sur les aspects plateforme • Conseil en architecture pour le dimensionnement • Résolution des incidents liés à l'infrastructure Collaboration transverse : • Équipes réseau pour la connectivité et sécurité • Équipes système pour l'infrastructure sous-jacente • Équipes sécurité pour les audits et conformité • Équipes projet pour les nouveaux besoins Métriques et pilotage Indicateurs de performance : • Disponibilité de la plateforme ECE (uptime) • Temps de provisioning des nouveaux clusters • Utilisation des ressources et optimisation des coûts • Satisfaction des équipes consommatrices Gouvernance technique : • Standardisation des configurations de clusters • Politique de rétention et d'archivage • Processus de mise à jour et de maintenance • Documentation technique et procédures
CDI

Offre d'emploi
Data analytics backend engineer go / clickhouse (h/f) F/H - Informatique industrielle

█ █ █ █ █ █ █
Publiée le
CI/CD
ClickHouse
Ocaml

Rennes, Bretagne

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Network Engineer Expert

Codezys
Publiée le

12 mois
Paris, France
Description du service : Participer à la conception, à la mise en œuvre et à la maintenance de l'infrastructure réseau de l'organisation, en veillant à assurer un fonctionnement optimal et sécurisé. Fonctionnalités du service : Analyser la performance du réseau et identifier les zones nécessitant une optimisation Diagnostiquer et résoudre des problèmes réseau complexes Mettre en place des mesures de sécurité pour protéger le réseau contre les cybermenaces Livrables du service : Élaborer et documenter les politiques et procédures réseau Fournir un accompagnement technique et un support aux utilisateurs finaux Participer à la planification et à l'exécution des mises à niveau et des migrations réseau
CDI

Offre d'emploi
Software Engineer Fullstack (React / Java) F/H - Informatique industrielle (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Kafka
CI/CD
Code Review

Lille, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer Nantes /st

WorldWide People
Publiée le
Python

12 mois
340-390 €
Nantes, Pays de la Loire
Data Engineer Nantes •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Freelance

Mission freelance
Developpeur Data Engineer

Freelance.com
Publiée le
Big Data
Snowflake

3 mois
400 €
Bordeaux, Nouvelle-Aquitaine
Vous rejoignez l’équipe Data Tech Knowledge au sein de la direction IT Data. La mission s’inscrit dans une dynamique d’innovation autour de l’ IA appliquée aux environnements Data , avec un fort enjeu d’industrialisation et d’optimisation des processus existants. Vous intervenez en proximité avec les équipes métiers et data afin d’améliorer les outils, les flux et les plateformes. 🚀 Missions principales Développer et maintenir des pipelines d’alimentation de données Concevoir et optimiser des transformations via ETL (Talend / DBT) Travailler en binôme avec un Data Analyst sur des cas d’usage IA/Data Participer au développement d’agents IA permettant le requêtage SQL en langage naturel Mettre en place des outils d’aide au développement et de monitoring Contribuer aux bonnes pratiques DevOps et DataOps Réaliser une veille technologique autour des architectures data modernes 🛠 Environnement technique Langages : SQL, Python Bases de données : Snowflake, SQL Server, PostgreSQL Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Visualisation : Power BI 🔎 Profil recherché 2 à 5 ans d’expérience en Data Engineering Très bonne maîtrise de Python et Snowflake Expérience confirmée sur des outils ETL (Talend et/ou DBT) Connaissances en IA (1 à 2 ans) appréciées Autonomie, esprit d’équipe et capacité à comprendre les enjeux métiers
Freelance

Mission freelance
Senior Infrastructure Engineer H/F

Cheops Technology
Publiée le
Infrastructure

12 mois
400-500 €
Saint-Berthevin, Pays de la Loire
Le Senior Infrastructure Engineer est le référent technique infrastructure pour un environnement multisites composé de datacenters, d’entrepôts logistiques et de magasins. Il garantit la disponibilité continue des services IT en production, la performance des infrastructures des datacenters et les réseaux inter-sites supportant les opérations métier au quotidien. Responsabilités Principales • Être le point d’escalade technique pour les incidents critiques impactant les sites (Salles IT, entrepôts, magasins). • Apporter une expertise Technique niveau 3 / 4 sur les environnements et infrastructures distribués. • Définir et faire respecter les standards d’infrastructure déployés sur les sites. • Accompagner les équipes locales et prestataires terrain. • Concevoir et mettre en place des infrastructures robustes et Scalable • Définir des templates d’infrastructure site (réseaux, serveurs, Wi-Fi, sécurité). • Piloter l’industrialisation des déploiements (nouveaux sites, extensions, Plateformes etc ..). • Concevoir et maintenir les réseaux LAN / WAN / Wi-Fi multisites. • Gérer les interconnexions MPLS / SD-WAN / VPN entre sites et datacenters/cloud. • Assurer la priorisation des flux critiques (POS, data, voix, IoT etc …). • Garantir la redondance et la résilience des accès WAN. • Garantir la haute disponibilité des services critiques 24/7. • Implémenter et maintenir les DRP adaptés aux contraintes terrain. • Superviser le monitoring des infrastructures sites et datacenters. • Analyser les incidents récurrents et déployer des actions correctives durables. • Être lead technique sur les projets d’infrastructure. • Rédiger la documentation d’architecture et les dossiers techniques. • Garantir la disponibilité, la performance des infrastructures IT. • Assurer le support expert N3/N4 et la résolution des incidents critiques. • Concevoir, maintenir et optimiser les infrastructures systèmes, réseaux et connectivité. • Piloter la maintenance avancée et les sauvegardes • Superviser la capacité, la performance et le capacity planning. • Collaborer avec architectes, ingénieurs et fournisseurs sur les sujets structurants. • Contribuer à l’amélioration continue et à la fiabilité des environnements de production
Freelance

Mission freelance
Release Train Engineer

Codezys
Publiée le
Coordination
Organisation

12 mois
380-480 €
Niort, Nouvelle-Aquitaine
Le Release Train Engineer (RTE) est le facilitateur chargé de coordonner et d’harmoniser le travail de plusieurs équipes collaborant sur un même produit ou projet. Son rôle consiste à assurer un déroulement fluide, organisé et efficace des activités en favorisant la communication et en aidant les équipes à résoudre leurs obstacles. Objectifs et livrables La société devra fournir les prestations suivantes : Responsabilités essentielles Organiser et faciliter les grands moments de coordination . Le RTE : Prépare et anime les réunions clés regroupant toutes les équipes concernées ; Aide chaque membre à comprendre les priorités et le planning global ; Veille à ce que les objectifs soient clairs, partagés et compris par tous ; Garant de la bonne exécution de l’ Agile Release Train : il veille à ce que le train délivre régulièrement de la valeur, en cohérence avec les objectifs stratégiques ; S'assure de la correcte application du framework du programme et du cadre agile en mode produit. Assurer la coordination entre les équipes . Le RTE : Repère les éventuels blocages entre les équipes et intervient pour les résoudre ; Met en relation les bonnes personnes au bon moment ; S'assure que tous progressent dans la même direction ; Adopte un rôle de servant leader et de coach : accompagne les équipes, Product Owners et managers dans l’application des principes Agile. Suivre l’avancement et assurer la visibilité . Le RTE : Assidûment, suit les progrès réalisés par les équipes ; Identifie et anticipe les risques ou problèmes potentiels ; Informe régulièrement les responsables et les équipes de l’état d’avancement global. Améliorer le fonctionnement collectif . Le RTE : Favorise une meilleure collaboration entre les équipes ; Propose des pistes d’amélioration continue ; Encourage une culture de travail efficace, dynamique et constructive ; Facilite la communication entre les équipes et les parties prenantes (Business Owners, architectes, autres trains, etc.). Compétences techniques
Freelance

Mission freelance
Data Engineer

Codezys
Publiée le
Intelligence artificielle
Python
Snowflake

12 mois
Bordeaux, Nouvelle-Aquitaine
Dans le cadre de notre démarche d'innovation et de renforcement de notre expertise en gestion de données, nous lançons un appel d'offres pour le recrutement d'un(e) Data Engineer intégré(e) à notre Direction des Systèmes d'Information (DSI). Le(a) candidat(e) retenu(e) aura pour mission principale d'apporter son expertise technique sur des sujets récents liés à l'intelligence artificielle (IA) appliquée à la data, en s'appuyant sur une compréhension approfondie des enjeux métiers et techniques. Responsabilités principales : Alimentation de données : Effectuer l'ingestion, la transformation et la mise à jour des flux de données provenant de différentes sources afin d’assurer leur disponibilité et leur cohérence. Collaboration avec un Data Analyst : Travailler en binôme sur des projets liés à l’IA et à la data, en apportant votre expertise technique pour la réalisation d’analyses et la mise en place de solutions innovantes. Développement d’outils IA : Participer à la conception et au déploiement d’agents IA capables de réaliser du requêtage SQL en langage naturel, facilitant ainsi l’accès et l’interprétation des données par les utilisateurs métier. Outils et monitoring : Mettre à disposition des outils d’aide au développement, au monitoring et à la maintenance des plateformes data, afin d’assurer leur fiabilité et leur performance. Veille technologique : Effectuer une veille continue sur les architectures data, en termes de nouvelles tendances, d’outils émergents et de bonnes pratiques, pour faire évoluer nos solutions et répondre efficacement aux besoins métiers. La personne recrutée devra faire preuve de rigueur, d’autonomie et d’un esprit d’innovation, tout en étant à l’écoute des besoins des utilisateurs finaux. La maîtrise des technologies liées à l’IA, aux plateformes data et à la requête en langage naturel sera un réel atout pour la réussite de ce projet. Nous invitons donc les candidats ou organismes intéressés à soumettre leur proposition, en précisant leur approche technique, leur expérience et leur capacité à répondre à ces enjeux stratégiques.
Freelance

Mission freelance
Data Engineer Python – Data Platform & Data Governance

Deodis
Publiée le
BI
Data Engineering
Data quality

1 an
340-500 €
Île-de-France, France
Dans le cadre de l’évolution de sa Data Platform, le client recherche un Data Engineer Python pour intervenir au sein de l’équipe DataHub Core Platform. La mission consiste à contribuer aux projets de migration vers une nouvelle plateforme, au développement de nouveaux cas d’usage BI ainsi qu’à la mise en place de workflows en Python. Le consultant participera également à des projets stratégiques tels que le Transaction Profiling, le Data Quality Framework (DQF) et le Data Lineage, avec pour objectif d’améliorer la qualité, la fiabilité et la traçabilité des données. Il sera aussi en charge du développement de modules Python mutualisés, réutilisables sur l’ensemble des projets data, dans un environnement dynamique et orienté gouvernance des données.
Freelance
CDI

Offre d'emploi
Machine Learning/ML Engineer

WINSIDE Technology
Publiée le
Python

3 ans
40k-52k €
400-540 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e ML Engineer confirmé.e pour une grande entreprise sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 3 ans à minima en tant ML Engineer. tu es expert.e en conception et industrialisation de modèles. tu sais automatiser les entraînements et les déploiements de modèles. tu as 5 ans d'expérience professionnelle en Python. tu as des bases solides sur MLflow ou Kubeflow ou Vertex. tu es familier avec l'environnement GCP et ses services. tu as des excellentes connaissances DevOps et de bases de données SQL et NoSQL. Idéalement tu as eu une expérience dans le retail. Les bénéfices du poste : 🤖 Un terrain de jeu technologique de pointe Le poste offre une exposition complète aux technologies les plus recherchées du marché : LLM, RAG, MLOps, GCP, Kubernetes — avec une ownership réelle du cycle de vie complet des modèles, du prototype à la production. 🚀 Un environnement d'innovation structuré L'entreprise combine l'agilité (Scrum/SAFe) d'une culture innovation avec la solidité d'un grand groupe, offrant ainsi stabilité et dynamisme pour progresser vite. Tes missions : Concevoir, développer et industrialiser des modèles de Machine Learning et d'IA, de la phase de prototypage jusqu'à la mise en production. Construire et maintenir les pipelines de données et de MLOps pour automatiser l'entraînement, l'évaluation et le déploiement des modèles. Participer activement à l'architecture et au développement des produits du domaine, notamment la plateforme MLOps et les solutions basées sur les LLM. Assurer la scalabilité, la robustesse et la performance des solutions IA déployées, en collaboration avec les équipes Ops et Data. Garantir la qualité du code et des modèles via des revues, des tests automatisés (unitaires, intégration) et des stratégies de monitoring. Participer à l'élaboration de la CI/CD selon les pratiques DevOps et MLOps sur la Google Cloud Platform et Github. Assurer une documentation complète des modèles, des pipelines et des configurations au sein du référentiel documentaire (Github / Gitbook). Être responsable du cycle de vie complet des modèles (build et run), incluant le monitoring et la maintenance en production. Démarrage : mi-mars, début avril. TT: 3 jours par semaine. Durée : 3 ans. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Freelance

Mission freelance
Data Engineer Nantes/pa

WorldWide People
Publiée le
Scripting

12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Freelance

Mission freelance
Analytic Engineer / Expert Qlik Finance & HR

VISEO
Publiée le
DBT
Qlik
Snowflake

12 mois
400-620 €
92100, Boulogne-Billancourt, Île-de-France
Qui êtes-vous ? Si pour vous être Analytic Engineer / Expert Qlik Finance & HR , c’est : 🔹 Construire des applications Qlik robustes, performantes et pensées pour des enjeux métier critiques ; 🔹 Manipuler avec précision des analyses financières avancées : YTD, MTD, rolling forecast, variance vs budget/forecast ; 🔹 Garantir la qualité, la fiabilité et la cohérence des KPI dans un environnement où la donnée est sensible et réglementée ; 🔹 Concevoir des modèles analytiques via SQL et dbt , en appliquant de vraies bonnes pratiques d’ingénierie ; 🔹 Travailler en CI/CD, versionner proprement votre code, challenger les approches et améliorer en continu ; 🔹 Jouer un rôle de référent BI , diffuser les standards de développement, optimiser les performances et accompagner les équipes… …Alors vous êtes exactement la personne que nous recherchons ! Si vous avez une expérience significative en BI/Qlik dans un contexte exigeant, que vous aimez autant faire que faire faire , et que vous souhaitez participer à une transformation data ambitieuse, alors vous êtes prêt(e) à rejoindre l’aventure. Quelle sera votre mission ? Vous allez contribuer directement à la construction d’un data mesh Finance & HR à fort impact stratégique, au sein d’une modern data stack pleinement en transformation. Vous allez pouvoir : 🔹 Développer, optimiser et industrialiser des cockpits Qlik utilisés au niveau mondial ; 🔹 Mettre en œuvre une sécurité de haut niveau , garantir la confidentialité et participer aux audits ; 🔹 Contribuer à la création de consumer data products : modélisation SQL, transformations, tests automatisés, documentation ; 🔹 Participer à la modernisation des pratiques BI : versioning GitLab, revues de code, guidelines, performance, réutilisabilité ; 🔹 Apporter votre leadership technique pour faire évoluer les standards, structurer la gouvernance des KPI, améliorer la robustesse des modèles ; 🔹 Collaborer avec une équipe engagée et transverse (Finance, RH, Data Product Owners, ingénieurs Data) pour délivrer des solutions fiables et utiles. En somme : il s'agira de construire ensemble une BI moderne, scalable, sécurisée, pensée pour durer et qui soutient directement les décisions stratégiques de la Finance et des RH.
Freelance
CDI

Offre d'emploi
📩 Data Engineer confirmé – Environnement Data Platform / Gouvernance

Gentis Recruitment SAS
Publiée le
Apache Spark
API REST
AWS Cloud

12 mois
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data au sein d’un grand groupe du secteur de l’énergie, vous intervenez au sein d’une équipe transverse dédiée à l’accélération des usages Data et IA. L’équipe accompagne les différents métiers dans la conception, la mise en œuvre et l’industrialisation de solutions data à grande échelle, dans un environnement moderne (cloud, big data, data gouvernance). Missions Collecter et intégrer des données issues de sources multiples (structurées et non structurées) Concevoir et maintenir des pipelines de données fiables et performants Structurer et modéliser la donnée (logique sémantique, normalisation) Mettre en place des processus de data quality (nettoyage, déduplication, validation) Assurer la qualité et la cohérence des données intégrées dans le Data Lake Participer à la cartographie et à la gestion des référentiels de données Collaborer avec les Data Analysts et Data Scientists pour faciliter l’exploitation des données Contribuer à la gouvernance des données et à la définition du cycle de vie de la donnée Participer à l’amélioration continue des performances et des coûts des traitements Environnement technique SQL (niveau avancé) Spark Python APIs AWS Databricks Outils de data gouvernance (type Collibra – apprécié)
Freelance
CDI

Offre d'emploi
DevOps Engineer IA

TS-CONSULT
Publiée le
Azure
Terraform

1 an
Île-de-France, France
Bonjour a tous , actuellement je suis a la recherche d'un profil Compétences requises DevOps Engineer IA Profil recherché : DevOps Engineer avec expertise en MLOps et maîtrise du vibe coding, capable de construire et maintenir des infrastructures robustes pour l'IA tout en automatisant les déploiements et en garantissant la performance des solutions en production. Hard Skills : • 5 ans d'expérience minimum en DevOps/SRE • Expérience démontrée en vibe coding avec utilisation d'outils IA pour générer scripts, configs et diagnostiquer incidents • Expertise en MLOps et déploiement de modèles IA en production • Maîtrise des plateformes Cloud (AWS, Azure, GCP) et services IA Cloud • Expertise en Infrastructure as Code (Terraform, CloudFormation, ARM Templates) • Maîtrise de la conteneurisation et orchestration (Docker, Kubernetes, Helm) • Expertise CI/CD (GitLab CI, GitHub Actions, Jenkins, Azure DevOps) • Connaissance des outils MLOps (MLflow, Kubeflow, Weights & Biases, SageMaker Pipelines) • Maîtrise du scripting (Bash, Python) et automatisation • Expérience en monitoring et observabilité (Prometheus, Grafana, ELK, DataDog) • Connaissance des pratiques de sécurité DevSecOps • Gestion des secrets et configuration (Vault, AWS Secrets Manager) • Un plus : Expérience avec GPUs et optimisation des ressources IA Soft Skills : • Capacité à utiliser l'IA pour diagnostiquer et résoudre rapidement les incidents • Pragmatisme : équilibre entre automatisation et délais de livraison • Rigueur dans la conception et la sécurisation des infrastructures • Esprit d'innovation et veille technologique continue • Autonomie et proactivité dans l'identification des problèmes • Excellent sens du service et support aux équipes de développement • Esprit collaboratif et pédagogue • Réactivité face aux incidents de production Résultats attendus (Livrables) • Conception et mise en place d'architectures Cloud pour solutions IA (scalables, sécurisées, optimisées) • Déploiement et gestion d'infrastructures as Code (Terraform, CloudFormation) • Mise en place de pipelines CI/CD pour applications et modèles IA • Utilisation experte du vibe coding pour générer scripts, configs et automatisations • Automatisation des déploiements et rollbacks (blue/green, canary) • Configuration du monitoring, alerting et observabilité des modèles IA en production • Gestion des environnements (dev, staging, production) et des accès • Optimisation des coûts Cloud et des performances (GPU, compute, stockage) • Support aux développeurs sur l'outillage et les best practices DevOps • Documentation technique des infrastructures et procédures • Mise en place de pratiques DevSecOps et conformité sécurité • Partage des best practices MLOps et vibe coding avec l'équipe Anglais courant
475 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous