L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 409 résultats.
Offre d'emploi
Data Engineer Cloud IA / recrutement POEI
Publiée le
38k-45k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Vos principales missions seront : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data afin d'automatiser les processus métier • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : 68g71iyjy2
Mission freelance
Data Engineer (H/F)
Publiée le
Dataiku
1 an
350 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
📌 Data Engineer (H/F) – Poste basé à Clermont-Ferrand 3 jours de présentiel / 2 jours de télétravail 📢 Pas de portage ni de sous-traitance Nous recherchons un Data Engineer autonome , pour accompagner la transformation data de l’entreprise et soutenir les équipes métier dans leurs analyses, pilotages et initiatives de création de valeur. 🎯 Missions principales Collecter, analyser et exploiter les données pertinentes pour optimiser le pilotage des activités. Accompagner les équipes métier dans le développement, le déploiement et l’opération des solutions data. Concevoir des modèles de données (relationnel, dimensionnel, Data Vault). Développer et optimiser des pipelines ETL/ELT robustes et maintenables. Garantir la qualité et la gouvernance des données (lineage, métadonnées, quality checks…). Participer à l’évolution de l’ architecture data (Data Lakehouse, Data Mesh). Produire des visualisations et analyses accessibles (Power BI). Maintenir le catalogue de datasets à jour. Réaliser les tests selon la stratégie définie. Fournir des kits de formation et accompagner les utilisateurs dans la prise en main des solutions. 📈 Résultats attendus Données pertinentes identifiées, capturées et valorisées. Optimisation du temps, des outils et des ressources liés à la gestion data. Analyses et visualisations lisibles et exploitables par les métiers. Recommandations permettant la création de valeur opérationnelle. Amélioration continue des services et processus grâce aux insights data. Respect des normes éthiques et de gouvernance du groupe. Promotion et documentation des produits data pour faciliter leur maintien dans le temps. 🧠 Compétences requises Data Engineering Modélisation : relationnelle, dimensionnelle, Data Vault Pipelines ETL / ELT Gouvernance : data lineage, qualité, catalogage Architectures data modernes : Data Lakehouse, Data Mesh Langages SQL avancé Python / PySpark avancé Technologies Dataiku Power BI Databricks Azure Data Factory Azure Logic Apps 📍 Conditions Poste basé à Clermont-Ferrand 3 jours de présentiel / 2 jours de télétravail Pas de portage, ni de sous-traitance
Mission freelance
Senior Security Engineer
Publiée le
AWS Cloud
Azure
Gateway
12 mois
540-570 €
Suresnes, Île-de-France
Télétravail partiel
Nous recherchons un(e) Senior Security Engineer expérimenté(e) pour rejoindre notre équipe de sécurité opérationnelle. Le rôle est essentiel pour renforcer la posture cybersécurité de l’organisation en participant à des projets d’architecture, en menant des tests d’intrusion, en supervisant des projets de sécurité et en apportant une expertise technique sur les solutions de sécurité. La mission contribue à garantir l’efficacité des contrôles de sécurité, à appliquer la gouvernance de sécurité et à protéger les actifs critiques tout en maintenant la résilience opérationnelle. Responsabilités principales : Stratégie et architecture cybersécurité Mener des études d’architecture de sécurité. Assister à la mise en œuvre de la feuille de route technologique en cybersécurité. Fournir des retours sur les technologies émergentes et leur impact opérationnel. Aider à aligner l’utilisation des technologies avec les objectifs de sécurité de l’entreprise. Gestion de projets cybersécurité Superviser la planification, l’exécution et la livraison de projets cybersécurité (infrastructure, applications, cloud). Définir le périmètre, les objectifs et les livrables des projets. Collaborer avec des équipes transverses (IT central, IT régional, équipes produits et solutions, équipes GRC). Communiquer l’avancement, les risques et les résultats aux parties prenantes techniques et non techniques. Tests d’intrusion et gestion des vulnérabilités Contribuer à la définition du programme de tests d’intrusion. Coordonner les tests pour identifier les failles de sécurité. Analyser les résultats et accompagner les équipes concernées dans les mesures correctives. Fournir des rapports avec recommandations exploitables. Expertise sur les solutions de sécurité Piloter le déploiement des outils de sécurité. Agir en tant qu’expert technique sur les plateformes et outils de sécurité. Former les équipes IT et SecOps sur les technologies de sécurité. Évaluer la performance des solutions de sécurité et proposer des améliorations. Compétences techniques et qualifications : Minimum 10 ans d’expérience en tant que consultant ou dans un rôle similaire en cybersécurité. Expérience avérée dans la conception et la mise en œuvre de stratégies de prévention des fuites de données (DLP) sur environnements cloud et postes de travail. Maîtrise approfondie de l’architecture de sécurité cloud (AWS, Azure, GCP) : IAM, chiffrement, conception sécurisée des workloads. Expérience pratique avec CSPM et CWPP, y compris la sélection, rationalisation et intégration des outils. Connaissance des WAF (AWS WAF, Azure Application Gateway, Cloudflare) et de leur configuration. Expertise dans la conception, l’exécution et le suivi des programmes de tests d’intrusion. Compétences complémentaires : Gestion de projet et engagement des parties prenantes. Capacité à traduire les risques techniques en impacts business. Excellentes compétences en communication et documentation, à destination d’audiences techniques et exécutives. Maîtrise du français et de l’anglais.
Offre d'emploi
Data Engineer H/F
Publiée le
45k-55k €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons un(e) data engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : 0tm07z0lov
Offre d'emploi
DataOps Engineer
Publiée le
SQL
6 mois
Île-de-France, France
Télétravail partiel
1G-LINK accompagne aujourd'hui de grands comptes dans l'amélioration de l'expérience de ses clients et collaborateurs. Cela passe par la valeur intrinsèque de l'entreprise : la symétrie des attentions. L'intelligence collective et la passion de ses collaborateurs permet à 1G-LINK de proposer des solutions digitales disruptives et à forte valeur ajoutée en réponse aux besoins innovants de ses clients. Notre savoir-faire : La passion de nos collaborateurs favorise leur épanouissement sur des projets à long terme ; La compréhension de l’expérience des équipes métiers permet de s’approprier l’environnement client ; L’expertise des collaborateurs 1G-Link permet d’accompagner le client dans toutes les étapes de sa transformation ; C’est par cette symétrie des attentions au quotidien que les consultants 1G-Link améliorent la chaîne de valeur client. Contexte Dans un environnement data en pleine évolution, notre client recherche un DataOps Engineer expérimenté pour accompagner la montée en puissance de sa plateforme analytique et soutenir les équipes Data dans leurs projets. Le poste combine une forte dimension SQL / optimisation avec un rôle DataOps et support auprès des Data Analysts. Enjeux du poste Garantir la performance et la fiabilité de la couche data, accompagner les Data Analysts dans la production d’analyses efficaces, et contribuer à la migration de la plateforme Dremio vers un socle Kubernetes / OpenShift . Missions principales Optimiser et réécrire les requêtes SQL produites par les Data Analysts pour en améliorer la performance et la maintenabilité. Apporter un support technique et méthodologique aux Data Analysts dans leurs développements. Assurer un rôle de référent DataOps sur la solution (suivi, fiabilisation, automatisation). Participer à la migration de Dremio vers OpenShift , en collaboration avec les équipes infrastructure et sécurité. Comprendre les processus fonctionnels métiers afin d’anticiper les impacts sur la donnée et les performances. Surveiller et diagnostiquer les problématiques de réseau ou de sécurité liées aux différents sous-réseaux utilisateurs. Contribuer à la mise en place des bonnes pratiques d’exploitation et de gouvernance data.
Offre d'emploi
Staff Engineer Python - Telecom - Paris H/F
Publiée le
FastAPI
Python
SQL
12 mois
70k-90k €
550-650 €
Paris, France
Télétravail partiel
Missions Principales Prendre le leadership technique du backend de notre système d'information. Comprendre et optimiser les processus métiers complexes comme la facturation tierce et le raccordement à la fibre. Définir et piloter avec l'équipe l'architecture de notre système distribué. S'engager dans du développement "hands on" avec Python et assurer la qualité et résilience du code. Annexes Initier et renforcer les bonnes pratiques de développement et de mise en production. Proposer et implémenter des méthodes d’exploitation qui permettront aux équipes de développement d’opérer efficacement en production.
Offre d'emploi
DevSecOps Engineer – secteur Telecom – Paris (H/F)
Publiée le
Administration système
Kubernetes
Linux
12 mois
50k-70k €
500-550 €
Paris, France
Télétravail partiel
Principales : - Concevoir, développer et intégrer des solutions de sécurité open source abordant des problématiques telles que l'authentification, le chiffrement et la protection DDoS. - Construire et déployer des briques sécurité en interaction directe avec les équipes Systèmes et Développement. - Participer aux audits de sécurité et à la revue de code pour assurer les meilleures pratiques. Annexes : - Réaliser des revues de design focalisées sur la sécurité. - Collaborer pour détecter et corriger les vulnérabilités. - Maintenir une documentation sécurité conforme aux normes (CNIL, CAC, ANSSI). - Sensibiliser et animer les équipes tech autour des enjeux de sécurité dès la conception.
Mission freelance
Data engineer - Reconstruction modèle tabulaire – SQL / DAX
Publiée le
DAX
SQL
15 jours
Asnières-sur-Seine, Île-de-France
Télétravail partiel
Data engineer - Reconstruction modèle tabulaire – SQL / DAX - 15 JOURS Contexte & objectif de la mission L’entreprise recherche un Data Engineer opérationnel pour intervenir sur un environnement décisionnel existant présentant des problèmes de : redondance de données , manque de fiabilité / véracité , performances insuffisantes dans les rapports et calculs, modèle tabulaire (cube) devenu difficile à maintenir. L’objectif de la mission est de reconstruire le modèle tabulaire , fiabiliser les sources, optimiser les performances et remettre le datamart sur des bases saines. Missions principales Analyser l’existant : tables SQL, flux, relations, modèle tabulaire actuel. Identifier les causes de redondance, d’incohérences et de problèmes de performances. Proposer une modélisation cible optimisée (star schema, normalisation, référentiels). Reconcevoir ou reconstruire le modèle tabulaire (VertiPaq) dans les bonnes pratiques. Reprendre les mesures DAX : fiabilisation, optimisation, documentation. Améliorer la qualité, la cohérence et la fraîcheur des données. Mettre en place les optimisations SQL (indexation, refactor, vues, partitionnement si nécessaire). Documenter les travaux réalisés et transmettre les bonnes pratiques. Livrables attendus Nouveau modèle tabulaire propre, performant et stable Refonte ou nettoyage des tables SQL sources Mesures DAX revues et fiabilisées Optimisations performances (SQL + DAX + modèle) Documentation technique Plan d’amélioration continue si nécessaire Environnement technique MS SQL Server SSAS Tabular / VertiPaq DAX Modélisation BI MS + Visualisation PowerBI Entrepot de données : Talend
Offre d'emploi
Data Engineer Senior
Publiée le
Python
SQL
1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Contexte de la mission Au sein de la Direction Data (Direction du Numérique), intégration à l'équipe Bronze (PO, data steward, 2 data engineers) au cœur de la plateforme Data. Stack principale : Python, Spark, SQL (traitements), Airflow (orchestration), Cloud Storage & Delta Lake (stockage), services cloud (BigQuery, Dataproc, Pub/Sub, Cloud Storage), Terraform/Terragrunt (infra). Activités attendues Concevoir et maintenir des pipelines data robustes et scalables ; organiser et structurer le stockage. Mettre en place et maintenir des infrastructures scalables ; assurer sécurité et stabilité des environnements. Construire et maintenir les workflows CI/CD ; accompagner l'équipe sur l'exploitation et requêtage. Gouvernance et conformité (qualité, sécurité, conformité), documentation, veille et participation aux instances Data Ingénieurs.
Offre d'emploi
Project Quality Engineer - Ferroviaire H/F
Publiée le
40k-50k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Contexte de la mission : Viveris accompagne ses clients dans la conception et la fabrication d'équipements de haute technologie destinés au secteur normé ferroviaire. Dans ce cadre, nous recherchons un Project Quality Engineer, chargé d'assurer la conformité, la robustesse et la traçabilité des activités de développement tout au long du cycle projet. Intégré au sein de l'équipe de la Direction de la Qualité Projet, vous jouerez un rôle clé dans le pilotage qualité des développements logiciels et systèmes, en lien avec les exigences normatives du domaine ferroviaire. Responsabilités : - Accompagner les équipes projet pour garantir la conformité des activités de développement aux standards qualité internes et clients ; - Participer à la définition et à la gestion des exigences système et logicielles, assurer leur traçabilité et leur cohérence ; - Suivre la gestion de configuration des livrables techniques (logiciel, documentation, exigences) ; - Participer aux revues d'ingénierie et piloter les plans d'actions correctifs liés à la qualité ; - Réaliser des audits internes et revues de conformité, proposer des axes d'amélioration continue.
Mission freelance
Data Engineer Senior Secteur Media
Publiée le
Apache Airflow
Apache Spark
BigQuery
6 mois
520-640 €
Île-de-France, France
Télétravail partiel
Contexte et détails de la mission Définition du besoin La Direction Technique du Numérique mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Au sein de l’équipe Bronze, la prestation se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. Prestations attendues : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation en data engineering En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances de data engineering • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Modalités de la prestation : Présence sur site requise en fonction des besoins de la prestation et a minima équivalente à 50% du temps de la prestation. Astreintes week-end et jours fériés : Non Matériel performant à fournir par le prestataire : Pour ce faire, les postes informatiques utilisés par le prestataire lors des prestations doivent avoir : - Un antivirus à jour et activé - Un mécanisme de chiffrement du disque activé - Un système d'exploitation à jour de ses correctifs de sécurité - Un mécanisme de verrouillage du poste activé - Un moyen de stockage sécurisé des mots de passe. Usage de la langue française : L'exécution de chaque marché spécifique nécessite l'usage principal et permanent de la langue française dans les rapports avec les parties prenantes (documents, réunions, appels téléphoniques, courriers électroniques…). Les personnes en charge de l‘exécution des prestations doivent maîtriser parfaitement le français (et toute autre langue qui serait précisée après information dans le DCE du marché spécifique concerné) dans le contexte et environnement.
Offre d'emploi
Data engineer appétence machine learning (H/F)
Publiée le
40k-45k €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez sur un projet en tant que Data engineer. Dans le cadre d'un projet de transformation Data ambitieux, nous recherchons un Ingénieur Data pour concevoir et structurer l'architecture d'un Data Warehouse et poser les bases des futurs projets d'intelligence artificielle. Vous interviendrez sur l'ensemble de la chaîne de valeur de la donnée : collecte, structuration, gouvernance, qualité et préparation aux usages prédictifs. Vos missions : 1. Architecture & Infrastructure Data Définir et mettre en œuvre l'architecture du Data Warehouse (on-premise). Concevoir et automatiser les pipelines ETL/ELT à partir des systèmes existants (ERP, TMS, WMS…). Garantir la qualité, la traçabilité et la sécurité des données. Participer à la mise en place d'un catalogue de données pour améliorer la gouvernance. 2. Préparation et Structuration pour l'IA Concevoir des modèles de données adaptés aux futurs cas d'usage IA et prédictifs. Structurer et enrichir les datasets nécessaires aux analyses (prévision ETA, détection d'anomalies…). Collaborer avec les équipes de développement ERP pour intégrer les flux métiers. 3. Collaboration & Culture Data Travailler en étroite collaboration avec les équipes IT, métiers, développement logiciel et direction. Sensibiliser les équipes à la culture data-driven et à l'utilisation des outils analytiques. Être un moteur dans la diffusion des bonnes pratiques Data au sein de l'entreprise. 4. Développement Machine Learning (à moyen terme) Participer à la création de premiers modèles de Machine Learning en lien avec les métiers. Contribuer à leur industrialisation (API, conteneurisation, intégration à l'ERP). Compétences : Excellente maîtrise de Python et SQL. Solide expérience en construction de pipelines de données (ETL/ELT). Connaissance d'un ou plusieurs outils d'orchestration : Airflow, dbt, Talend… Bonnes bases en bases de données relationnelles et cloud : Snowflake, BigQuery, Synapse, PostgreSQL… Compréhension des principes du Machine Learning (pandas, scikit-learn). À l'aise dans un environnement DevOps (Git, CI/CD, Docker, APIs REST).
Mission freelance
Senior Azure Data Engineer
Publiée le
Automatisation
Azure
Data Lake
6 mois
400-550 €
Paris, France
Télétravail partiel
Concevoir, construire et maintenir des pipelines d'ingestion de données à l'aide d'Azure et d'outils ETL (Talend, Informatica). Intégrer diverses sources de données dans les environnements Azure Data Lake et Databricks. Garantir l'évolutivité, la performance et la sécurité des solutions de données. Optimiser les flux de travail et automatiser les processus afin de réduire les interventions manuelles. Collaborer étroitement avec les analystes métier pour traduire les besoins en solutions techniques. Gérer plusieurs projets simultanément, en assurant le respect des délais et des bonnes pratiques. Mettre en œuvre des contrôles de qualité des données et des normes de documentation. Contribuer aux initiatives d'amélioration continue au sein de l'équipe DataOps.
Mission freelance
Data Engineer Python Azure
Publiée le
Azure
Databricks
PySpark
12 mois
600-650 €
Paris, France
Télétravail partiel
DATA ENGINEER Avec des compétences sur Python/Pyspark/Databricks sous un environnement Azure Cloud. Objectifs et livrables : Nous recherchons une prestation de Data Engineering avec des compétences sur Python/Pyspark/Databricks sous un environnement Azure Cloud. Le consultant Data Engineer évoluera dans un contexte agile, en mode itératif et co- constructif, en s’appuyant sur l’intelligence collective. Le prestataire Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment : Collecter les exigences des métiers et des utilisateurs Concevoir data modeling SQL/NoSQL Concevoir les pipelines de données Mettre en production l'architecture Assurer la maintenance et l'évolution de l'architecture Expérience réussie d’au moins 6 ans en Data Engineering. Compétences requises quotidiennement : Maîtrise des technologies suivantes : Python niveau expert - (4/4) Azure Cloud niveau avancé - (3/4) Azure functions niveau confirmé - (2/4) Compétences requises : Pyspark niveau expert - (4/4) Databricks niveau expert - (4/4)
Mission freelance
Lead Data Engineer Azure Databricks
Publiée le
Apache NiFi
Databricks
PySpark
3 ans
600 €
Île-de-France, France
Télétravail partiel
🔍 Nous recherchons un(e) Lead Data Engineer Azure Databricks avec une forte posture de transmission, coaching et mise en place des standards, pour accompagner une équipe en montée de maturité sur Databricks. 📅 Démarrage ASAP 📍 Île-de-France 🎯 Missions clés : ✅ Optimisation & fiabilisation des jobs Databricks (PySpark / Spark) ✅ Mise en place des standards & bonnes pratiques Data Engineering ✅ Coaching, mentoring, animation de la communauté Tech Lead ✅ Contribution aux migrations & à la modernisation du DataLake ✅ Travail sur l’industrialisation (CI/CD – Azure DevOps)
Offre d'emploi
Data Engineer H/F
Publiée le
45k-55k €
Nantes, Pays de la Loire
Télétravail partiel
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : nms6b6pilg
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
409 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois