L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 322 résultats.
Offre d'emploi
Data Engineer Azure
KLETA
Publiée le
Azure
Databricks
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Azure pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur Microsoft Azure. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec Azure Data Factory, Azure Databricks, Azure Synapse, Azure Data Lake et Event Hubs. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’Azure. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
Architecte Data
VISIAN
Publiée le
Architecture
Data governance
1 an
40k-45k €
400-690 €
Paris, France
Descriptif du poste Le bénéficiaire souhaite s'appuyer sur une expertise en architecture data ou data modeling afin de : Accompagnement des équipes Métier et IT dans la mise en œuvre de solutions Data alignées avec la stratégie Data de l'entreprise, fondée sur les principes Data Mesh et une gouvernance renforcée. Définition et application des principes d'architecture et de gouvernance Data, en lien avec la Design Authority et le Centre d'expertise Data. Le périmètre d'intervention pourra évoluer en fonction des besoins et des domaines métier à adresser.
Offre d'emploi
Responsable Practice IA & DATA (H/F)
K-Lagan
Publiée le
Big Data
Direction de projet
IA Générative
50k-80k €
Paris, France
🚀 K-LAGAN recrute un(e) Responsable Practice IA&DATA (H/F) 🌟 Rejoignez une aventure stratégique et innovante au cœur de la Data & de l’Intelligence Artificielle ! Chez K-LAGAN France , nous recherchons un(e) profil senior et expérimenté pour piloter et développer nos activités Data & IA , dans le cadre de projets à forte valeur ajoutée, au sein d’un environnement en pleine croissance. 📍 Localisation : Paris (Île-de-France) et/ou Niort (Nouvelle-Aquitaine) – mode hybride 🔥 Pourquoi nous rejoindre ? En intégrant K-LAGAN, vous rejoignez une équipe d’experts passionnés par la Data, l’IA et les technologies de pointe. Vous interviendrez sur des projets innovants , en collaboration avec des clients et partenaires de renom , tout en contribuant activement à la structuration et au rayonnement de notre practice Data & IA . 🎯 Votre rôle En tant que Data & IA Project Manager / Responsable Practice IA , vous piloterez des projets complexes Data & IA et accompagnerez la montée en puissance de notre expertise interne. 👨💻 Vos principales responsabilités : Piloter des projets Data & IA de bout en bout : cadrage, conception, développement, mise en production. Recueillir et analyser les besoins métiers afin de proposer des solutions adaptées et innovantes. Définir une vision stratégique Data & IA , alignée avec les objectifs business. Superviser et animer des équipes pluridisciplinaires (data engineers, data scientists, MLOps, business analysts). Développer et intégrer des solutions basées sur le Machine Learning, Deep Learning, NLP , etc. Assurer la gouvernance, la qualité et l’éthique des données (RGPD, gestion des risques, biais algorithmiques). Mettre en place et suivre des KPIs pour mesurer la performance et la valeur des projets. Être un(e) ambassadeur(rice) de la Data & de l’IA , accompagner le changement et vulgariser les enjeux auprès des parties prenantes non techniques.
Mission freelance
Data Engineer
CAT-AMANIA
Publiée le
Data analysis
Large Language Model (LLM)
OCR (Optical Character Recognition)
3 ans
Lyon, Auvergne-Rhône-Alpes
La l'équipe RAD-LAD (Reconnaissance Automatique de Documents et Lecture Automatique de Documents) a pour objectif de savoir reconnaître le maximum de documents clients possible et d'en extraire le maximum de données possibles pour aider le conseiller au quotidien. L'équipe souhaite élargir son panel de documents reconnus et moderniser les technologies utilisées (LLM notamment). * Tester différents LLM peu importe le provider (aws, gcp, azure) * Préparer les jeux de données * Définir les conditions de succès et d’échec et paramétrer les outils de benchmark (IA tools par exemple) afin de comparer les résultats attendus * Faire des développements sur les produits de la squaq (Java / Python)
Offre d'emploi
AI/ML Product Engineer – Energy Solutions
RIDCHA DATA
Publiée le
Deep Learning
IA Générative
Preuve de concept (POC)
1 an
Aubervilliers, Île-de-France
Contexte de la mission Dans le cadre d’une stratégie de transformation digitale axée sur l’optimisation de la performance énergétique et la décarbonation, l’entreprise souhaite renforcer ses capacités en intelligence artificielle appliquée au secteur de l’énergie. L’AI/ML Product Engineer interviendra en support des différentes Business Units afin de concevoir, développer et industrialiser des solutions d’intelligence artificielle couvrant l’ensemble des segments énergétiques, notamment les bâtiments, les sites industriels, les réseaux énergétiques et les unités de production. L’objectif est de transformer les problématiques opérationnelles en produits IA robustes, scalables, explicables et réutilisables, intégrés à la plateforme data de l’entreprise et déployables à grande échelle. Objectifs et livrables Concevoir, développer et déployer des solutions IA/ML permettant d’optimiser la performance énergétique et de réduire l’empreinte carbone Collaborer étroitement avec les équipes Data Science et IT pour transformer les besoins métiers en produits IA industrialisés Développer une bibliothèque de composants IA explicables et réutilisables intégrés à la plateforme data Assurer le pilotage complet des projets IA, du POC jusqu’à la mise en production Garantir la qualité des données, la robustesse technique et l’impact business mesurable Produire la documentation technique, les guides de déploiement et les bonnes pratiques Favoriser la collaboration transversale entre équipes métiers, IT et data
Mission freelance
Data Engineer expert sur Snowflake et DBT
Nicholson SAS
Publiée le
DBT
Snowflake
SQL
6 mois
500 €
Paris, France
Mon client recherche un Data Engineer expert sur Snowflake et DBT pour rejoindre ses équipes basées à Paris , avec une présence impérative de 3 jours par semaine sur site . La mission débutera dès que possible pour une durée initiale allant jusqu’au 30 juin 2026 . Le taux journalier maximum est fixé à 500 euros . Dans un contexte de modernisation et d’optimisation de la plateforme data, l’expert interviendra pour structurer et organiser l’environnement Snowflake , définir et diffuser les bonnes pratiques de développement ainsi que mettre en place les standards de qualité et de performance . Il accompagnera les équipes techniques dans l’ adoption de ces standards et s’assurera de la cohérence des modèles de données et des pipelines existants. Le profil recherché dispose de plus de 6 ans d’expérience en ingénierie data et justifie d’une excellente maîtrise de Snowflake, DBT et SQL . Une aisance en anglais est indispensable pour évoluer dans un environnement international. Ce rôle stratégique allie vision technique, rigueur et pédagogie afin de garantir la robustesse et la scalabilité des solutions data au sein du groupe.
Offre d'emploi
Data Engineer H/F
OBJECTWARE
Publiée le
SQL
1 an
Nantes, Pays de la Loire
Nous recherchons un data engineer H/F en charge de l’alimentation des datamarts. Missions : Compréhension de l’activité et des besoins en dialogue avec la MOA Compréhension du SI de production, en dialogue avec les équipes MOE Modélisation du Système d’Information Décisionnel Conception et réalisation des traitements d’alimentation des datamarts Diagnostic des dysfonctionnements rencontrés Maintenances correctives et évolutives Support auprès des différents métiers Documentation technique Suivi des traitements
Offre d'emploi
Data modeler
IT CONSULTANTS
Publiée le
Méthode Agile
12 mois
Châtillon, Île-de-France
Cherchons un profil DATA MODELER pour concevoir, développer et maintenir les modèles de données de différents domaines pour soutenir les besoins en matière de définition des différents modèles de données de notre client. Il/elle contribuera à la qualité des données et sera en charge de - la gestion des objets de données, - la création de schémas de base de données, - la modélisation de données dimensionnelles ou relationnelles Expérience en Architecture Data requise Compétences requises : - Maitrise des méthodologies de modélisation des données standard de l'industrie - Expertise éprouvée dans le développement de bases de données relationnelles dans un contexte d'entreprise - Connaissances SQL avancées, - Optimisation des performances des bases de données et des requêtes, - Compréhension approfondie de la méthodologie et des procédures de modélisation, La mission consiste à couvrir les actions suivantes : 1. Concevoir des modèles de données efficaces, y compris des schémas de base de données, des modèles dimensionnels et relationnels, 2. En collaboration avec les porteurs de domaines de données et les data stewards collaborer avec les équipes métier pour comprendre leurs besoins en matière de données et traduire ces besoins en modèles de données, 3. Développer, implémenter et maintenir des normes de modélisation de données pour garantir la cohérence au global et au sein des domaines de données, 4. Accompagner les data analysts et le faire monter en compétence sur la modélisation des données, 5. Collaborer avec les feature teams et les projets pour déployer les modèles de données et surveiller leur performance. 6. Documenter les modèles de données, les schémas de base de données et les processus liés à la modélisation de données. - Aptitudes personnelles : Excellentes capacités de travail d'équipe et de communication Excellentes capacités consultatives, facilitatives et consensuelles Excellentes capacités de communication orale et écrite Excellentes capacités d'analyse, de profilage de données et de résolution de problèmes
Mission freelance
Développeur mobile React Native / Data Engineer
GAGNITECH
Publiée le
Azure
CI/CD
Databricks
6 mois
400-450 €
Paris, France
Nous recherchons un profil hybride, combinant une expertise en développement mobile React Native et une compétence solide en Data Engineering sur Databricks/Azure. Votre mission principale portera sur la maintenance évolutive et corrective d’une application mobile développée en React Native. En fonction de la charge de travail côté front, vous pourrez également intervenir sur la partie back/data du produit afin de contribuer aux traitements et pipelines de données sur Azure/ Databricks. Vos missions Vous interviendrez au cœur d’une squad produit sur les sujets suivants : 1) Développement mobile Assurer la maintenance évolutive et corrective d’une application mobile en React Native Garantir une expérience utilisateur fluide, performante et conforme aux bonnes pratiques (optimisation, modularité, testabilité) Implémenter de nouvelles fonctionnalités ainsi que les tests associés, dans une démarche clean code (sécurité, maintenabilité) 2) Data Engineering Concevoir, développer et implémenter des solutions Big Data Analytics Construire et industrialiser les pipelines de données (collecte, transformation, traitement) dans le Data Lake Développer des notebooks avancés sous Databricks (langage SQL, Framework SPARK) Rédiger la documentation technique (DAT, release notes, etc.) Réaliser des tests unitaires et assurer la qualité des livrables Contribuer à la maintenance évolutive et corrective des traitements Livrer dans un environnement DevOps (CI/CD) et maîtriser les outils associés Dans le cadre de notre besoin, nous recherchons un profil hybride associant : - une expertise confirmée en développement mobile React Native, - et une compétence en Data Engineering sur Azure / Databricks. La mission repose principalement sur la maintenance évolutive et corrective d’une application mobile développée en React Native. En fonction de la charge de travail sur la partie front, le consultant pourra également intervenir sur les traitements back/data, notamment sur les pipelines et notebooks Databricks sur le cloud Azure. - Démarrage souhaité : ASAP - Conscients que ce type de profil hybride est rare, nous vous remercions de ne proposer que des candidats répondant strictement aux critères décrits dans la fiche de mission. - 3 jours obligatoire sur site
Mission freelance
Data Engineer Azure Python
Cherry Pick
Publiée le
Azure
Python
SQL
12 mois
600 €
Paris, France
Le Datahub est la plateforme centrale du système d’information d’un acteur majeur de l'épargne. Il centralise, normalise et expose l’ensemble des données pour des usages métiers critiques : calcul des commissions, génération de documents clients, finance, marketing et écosystème partenaires. En tant que Data Engineer (Renfort) , vous rejoignez une équipe de 3 personnes pour accélérer le développement, l’industrialisation et la fiabilisation des pipelines de données dans un environnement en pleine transformation. 🛠️ Stack Technique Cloud & Stockage : Azure (Azure SQL, Cosmos DB). Orchestration & ETL : Azure Data Factory (ADF). Langages : SQL (Expertise requise), Python (Azure Functions). DevOps / IaC : Terraform, Azure DevOps, SonarCloud, Snyk. Évolution : Migration vers Airflow prévue prochainement. 🎯 Vos Missions Développement de Pipelines : Concevoir, maintenir et optimiser les flux d'intégration (ingestion, transformation, normalisation) via Azure Data Factory. Expertise Data : Réaliser des transformations et agrégations de données complexes en SQL, avec un focus sur la performance et la qualité. Industrialisation : Automatiser les processus via Python (Azure Functions) et gérer l'infrastructure via Terraform. Collaboration Métier : Travailler en direct avec les équipes Finance, Marketing et Relation Client pour traduire leurs besoins en solutions techniques robustes. Qualité & Sécurité : Garantir la fiabilité des données et la propreté du code (CI/CD, tests, revues de code). 👤 Profil Recherché Expérience : Data Engineer confirmé (3 à 5 ans d'expérience minimum). Maîtrise SQL : Capacité à gérer des traitements de données volumineux et complexes. Expertise Azure : Expérience solide sur ADF et l'écosystème Cloud Microsoft. Culture Dev : Bonne connaissance de Python et des principes DevOps (Git, CI/CD, Terraform). Soft Skills : Force de proposition, capacité d’adaptation et aisance pour échanger avec des interlocuteurs non techniques. Langue : Anglais professionnel (un vrai plus pour l'environnement international). 💼 Modalités Pratiques Démarrage : Sous 1 mois (disponibilité immédiate ou courte). Durée : Visibilité sur l'année 2026. Lieu : Paris (Locaux haut de gamme). Rythme : 3 jours de présence sur site / 2 jours de télétravail (pas de full remote).
Offre d'emploi
Technicien Support Informatique / Administrateur Systèmes (Confirmé)
RIDCHA DATA
Publiée le
Support technique
1 an
Dijon, Bourgogne-Franche-Comté
Contexte de la mission Dans le cadre d’un projet nécessitant une forte implication terrain, l’entreprise recherche un Technicien Support Informatique confirmé capable d’administrer les serveurs et les postes de travail, tout en assurant l’installation des machines et le bon fonctionnement des infrastructures informatiques. La mission implique des interventions variées sur les environnements utilisateurs, les infrastructures systèmes ainsi que les réseaux et la téléphonie. ⚠️ Des déplacements ponctuels en France sont à prévoir (contrainte forte du projet). Objectif principal / Livrable Installation et mise en service des machines et équipements informatiques Garantir la continuité de service des systèmes et infrastructures Missions principales1. Gestion des postes de travail Assistance aux utilisateurs et dépannage Installation et configuration des postes Déploiement de solutions métiers (signature électronique, outils spécifiques, etc.) 2. Gestion des infrastructures Supervision des systèmes Interventions techniques et maintenance Installation et mise en production des ressources informatiques 3. Téléphonie et réseaux Supervision des équipements Interventions techniques Installation et configuration des solutions réseaux et téléphonie 4. Support utilisateurs Support téléphonique et assistance à distance Gestion des incidents et mise en place d’actions correctives Compétences techniques requises Administration et gestion des infrastructures informatiques (confirmé) Téléphonie et réseaux (confirmé) Gestion des postes de travail (confirmé) Windows Server (confirmé) Responsabilités complémentaires Mise en production de nouvelles ressources informatiques Automatisation de certaines procédures Optimisation des performances systèmes et réseaux Mise en place des normes de sécurité et gestion des droits d’accès Gestion des dysfonctionnements et imprévus Coordination avec prestataires et fournisseurs
Offre d'emploi
Data Engineer GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer GCP pour concevoir, optimiser et industrialiser des plateformes data cloud natives sur Google Cloud. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec BigQuery, Dataflow, Pub/Sub et Cloud Storage. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé de GCP. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Mission freelance
Consultant Senior Big Data CDP/HDP
Nexius Finance
Publiée le
CI/CD
Dynatrace
1 an
440-510 €
Paris, France
Contexte : Notre client, acteur majeur du secteur bancaire, recherche un Expert CDP (Cloudera Data Platform) avec une solide expérience sur HDP (Hortonworks Data Platform). Le consultant interviendra sur l’amélioration continue des services Big Data, la gestion des incidents et la coordination des équipes techniques situées en France et en Inde. La maîtrise d’Ansible pour l’automatisation est indispensable pour optimiser l’infrastructure et les processus critiques. Responsabilités : Assurer l’amélioration continue des services sur CDP : optimisation des performances et configurations. Gérer les incidents sur HDP et CDP en production. Automatiser les processus via Ansible : mise à jour et création de playbooks pour le déploiement et la gestion des clusters. Coordonner et collaborer avec les équipes techniques en France et en Inde. Livrables attendus : Documentation technique à jour des environnements. Playbooks automatisés et opérationnels.
Offre d'emploi
DATA ANALYST (H/F)
█ █ █ █ █ █ █
Publiée le
Data management
Brive-la-Gaillarde, Nouvelle-Aquitaine
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Expert Cybersécurité Cloud GCP – S3NS / Environnement critique
RIDCHA DATA
Publiée le
Confluence
Google Cloud Platform (GCP)
Hardware Security Module (HSM)
1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un programme stratégique majeur de transformation numérique visant la modernisation des systèmes d’information métiers (nucléaire, thermique, déconstruction), nous recherchons un Expert Cybersécurité Cloud GCP . La mission s’inscrit au sein d’une Usine des Socles SI Maintenance , avec pour objectif de remplacer et sécuriser un SI EAM (Enterprise Asset Management) utilisé pour la maintenance d’installations industrielles critiques. 👉 Enjeux clés : Sûreté des systèmes critiques Souveraineté des données Conformité réglementaire Migration vers un cloud de confiance S3NS (Google Cloud opéré par un acteur souverain) Mission avec obligation de résultats , pilotée par livrables et indicateurs. 🎯 Vos missions En tant qu’ expert cybersécurité transverse , vous interviendrez sur les dimensions stratégiques, opérationnelles et de conseil : Évaluer la conformité cybersécurité (PSSI interne, SecNumCloud) Réaliser analyses de risques, études d’impact, cartographies des menaces Définir et mettre en œuvre des mesures compensatoires Contribuer à la stratégie globale de sécurisation des SI Accompagner la migration vers les nouveaux SI cloud S3NS Intégrer la sécurité sur tout le cycle de vie produit ( Security by Design / by Default ) Mettre en place la supervision sécurité : audits, logs, détection d’incidents Sensibiliser et acculturer les équipes (Security Champions)
Mission freelance
DATA ENGINEER
Codezys
Publiée le
Azure
BigQuery
Business Intelligence
12 mois
Hauts-de-Seine, France
Localisation :92 Démarrage : ASAP Jours obligatoires sur site : 3 jours/semaine Expérience : 5 ans minimum TJM: 400€ Data Engineer domaine Recyclage & Valorisation (F-H) Pour atteindre l'objectif stratégique de transformer ses données en un véritable actif, on réorganise ses services en créant une Direction DATA et FLUX rattachée au DSI du Groupe. Au sein de cette nouvelle direction, le/la Data Engineer domaine Recyclage & Valorisation aura en responsabilité l’infrastructure Data servant aux projets BI pour les métiers du Recyclage et de la Valorisation , conformément au niveau de service et de sécurité attendu. Il/ Elle a également la charge du maintien en condition opérationnelle de la Data Plateforme existante et de son évolution. MISSIONS • Est en charge de la mise en œuvre, du run et de l’évolution de la plateforme Data : o Intègre de nouveaux flux de données o S’assure du bon déroulement des batchs d’intégration des données o S’assure de l’intégrité et des performances de la plateforme Data o Veille à maintenir la plateforme Data « up to date » en mettant à jour ses composants et en la faisant évoluer en adéquation avec les dernières avancées technologiques • Pour être efficace, le/la Data Engineer doit avoir une connaissance transverse des flux de données qui transitent dans la plateforme data • Collabore avec les Data Analysts / Scientists pour s’assurer de la bonne utilisation des données qui sont exposées via la plateforme Data o Gère la mise à disposition et les droits d’accès à la donnée o S’assure des interactions entre les consommateurs des données et la data plateforme dans un soucis de rationalisation et de performance o Propose des améliorations techniques (indexation, datamart, pré calcul de kpis…) • Participe aux travaux d’amélioration continue de la qualité des données. • Assure le niveau de support N 3 sur la fraîcheur, l’intégrité et la mise à disposition des données • Est référent technique du socle Data • Interagit avec le département data gouvernance de la direction pour aligner les modèles de données avec la stratégie data des métiers • Travaille en étroite collaboration avec les data managers dans les BUs en charge de la définition et de la qualité des objets data pris en charge • Participe à la road map de mise en qualité des données lancées par les data managers
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2322 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois