L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 286 résultats.
Offre d'emploi
Data Ingénieur Spark
R&S TELECOM
Publiée le
Batch
Docker
Git
1 an
Rennes, Bretagne
En tant que Data Engineer Senior, vous interviendrez sur l’ensemble du cycle de vie de la donnée. Tâches à réaliser : Concevoir, développer et maintenir des pipelines d’ingestion batch et streaming Implémenter des traitements Data robustes, industrialisés et observables Participer à la construction d’une architecture Lakehouse moderne Garantir la qualité, la traçabilité et la fiabilité des données Contribuer à l’industrialisation (CI/CD, DataOps, automatisation) Collaborer étroitement avec les Data Architects, Platform Engineers, Product Owners et équipes métier Appliquer les bonnes pratiques de sécurité by design et de conformité Participer à la documentation et au transfert de connaissances
Mission freelance
ata Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) /sa
WorldWide People
Publiée le
DBT
Informatica
Snowflake
6 mois
400-480 £GB
France
Data Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) Bordeaux pour diriger la migration d'IICS vers DBT sur Snowflake. 5 à 10 ans d’expérience Anglais obligatoire Démarrage : asap Durée : min 3 mois Localisation : Bordeaux de préférence sinon France L'équipe recherche un data Engineer senior pour diriger la migration d'IICS vers DBT sur Snowflake. Le candidat idéal doit jouer le rôle de « traducteur » : il doit être capable de lire des mappages IICS hérités complexes (logique de rétro-ingénierie) et de les refactoriser en modèles SQL DBT modulaires et propres. Compétences requises : Connaissance approfondie d'IICS et de dbt : maîtrise parfaite des deux outils. Spécialisation en validation : expérience dans la vérification de la parité des données 1:1 à l'aide d'outils tels que dbt_audit_helper.) Stack : Snowflake, dbt, IICS et Airflow (pour l'orchestration).
Offre d'emploi
Expert /Administrateur Hadoop H/F
OCSI
Publiée le
Ansible
Apache Kafka
Big Data
40k-60k €
Île-de-France, France
Contexte Dans le cadre du développement et de la maintenance d’une plateforme Big Data stratégique , notre client grand compte renforce ses équipes techniques et recherche un(e) Administrateur Hadoop / Data Engineer confirmé(e) . Vous interviendrez au sein d’une équipe experte, sur une infrastructure Big Data critique, afin d’assurer sa disponibilité, son évolution et sa performance , dans un environnement à forts enjeux métiers et techniques. Missions En tant qu’ Expert Hadoop / Data Engineering , vos missions principales seront : Administrer, maintenir et optimiser les clusters Hadoop (Cloudera) Garantir la disponibilité, la performance et la sécurité de la plateforme Big Data Participer aux task forces techniques pour résoudre des incidents complexes Réaliser les montées de versions majeures des composants Hadoop Automatiser les déploiements, patching et configurations via Ansible et Terraform Gérer les incidents, changements et tickets d’infrastructure Contribuer aux évolutions du socle technique et au déploiement de nouvelles fonctionnalités Rédiger et maintenir la documentation technique Travailler en lien étroit avec les équipes internes et l’éditeur Cloudera Participer au suivi du planning global de production
Offre d'emploi
Responsable Practice IA & DATA (H/F)
K-Lagan
Publiée le
Big Data
Direction de projet
IA Générative
50k-80k €
Paris, France
🚀 K-LAGAN recrute un(e) Responsable Practice IA&DATA (H/F) 🌟 Rejoignez une aventure stratégique et innovante au cœur de la Data & de l’Intelligence Artificielle ! Chez K-LAGAN France , nous recherchons un(e) profil senior et expérimenté pour piloter et développer nos activités Data & IA , dans le cadre de projets à forte valeur ajoutée, au sein d’un environnement en pleine croissance. 📍 Localisation : Paris (Île-de-France) et/ou Niort (Nouvelle-Aquitaine) – mode hybride 🔥 Pourquoi nous rejoindre ? En intégrant K-LAGAN, vous rejoignez une équipe d’experts passionnés par la Data, l’IA et les technologies de pointe. Vous interviendrez sur des projets innovants , en collaboration avec des clients et partenaires de renom , tout en contribuant activement à la structuration et au rayonnement de notre practice Data & IA . 🎯 Votre rôle En tant que Data & IA Project Manager / Responsable Practice IA , vous piloterez des projets complexes Data & IA et accompagnerez la montée en puissance de notre expertise interne. 👨💻 Vos principales responsabilités : Piloter des projets Data & IA de bout en bout : cadrage, conception, développement, mise en production. Recueillir et analyser les besoins métiers afin de proposer des solutions adaptées et innovantes. Définir une vision stratégique Data & IA , alignée avec les objectifs business. Superviser et animer des équipes pluridisciplinaires (data engineers, data scientists, MLOps, business analysts). Développer et intégrer des solutions basées sur le Machine Learning, Deep Learning, NLP , etc. Assurer la gouvernance, la qualité et l’éthique des données (RGPD, gestion des risques, biais algorithmiques). Mettre en place et suivre des KPIs pour mesurer la performance et la valeur des projets. Être un(e) ambassadeur(rice) de la Data & de l’IA , accompagner le changement et vulgariser les enjeux auprès des parties prenantes non techniques.
Mission freelance
Chef de projet - Expérimenté Niort - 2 jours de télétravail
WorldWide People
Publiée le
Pilotage
12 mois
400-490 £GB
Niort, Nouvelle-Aquitaine
Chef de projet - Expérimenté Niort - 2 jours de télétravail PMO, relationnel En tant que Delivery Master DATA, coordonner et d'accompagner les équipes projets dans la livraison des initiatives Data. Un rôle central entre les équipes techniques, les chefs de projet, et les parties prenantes métiers. Vos missions incluront notamment : 0 - Rôle de PMO au sein du service : Suivi des budgets Saisies dans Clarity des collaborateurs 1 - Pilotage des projets Data : Planifier et organiser les projets de bout en bout (de la phase d’étude à la livraison). Coordonner les équipes multidisciplinaires (Data engineers, Data scientists, Product owners, etc.). Assurer le suivi des indicateurs clés de performance (KPI) et proposer des plans d’action corrective. 2 - Gestion de la qualité et des délais : Garantir la livraison des projets dans les délais impartis et selon les standards de qualité attendus. Superviser le respect des processus et bonnes pratiques en matière de gestion de données (Data Gouvernance, sécurité, conformité). 3 - Gestion Agile : Animer les cérémonies Agile (Daily Standups, Sprint Reviews, Retrospectives). Promouvoir une culture d’amélioration continue et de collaboration au sein des équipes. 4 - Communication et gestion des parties prenantes : Assurer une communication fluide entre les différentes parties prenantes (clients, équipes internes, fournisseurs). Préparer et animer les comités de suivi de projets (comités de pilotage, comités opérationnels). Gérer les attentes des clients et répondre aux demandes d’ajustement ou d’évolution des projets. 5 - Optimisation des processus : Identifier et mettre en place des actions d'amélioration des processus de livraison. Automatiser certaines tâches et optimiser les flux de travail pour augmenter l'efficacité opérationnelle.
Mission freelance
ata Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services)
WorldWide People
Publiée le
DBT
Informatica
Snowflake
6 mois
400-480 £GB
France
Data Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) Bordeaux pour diriger la migration d'IICS vers DBT sur Snowflake. 5 à 10 ans d’expérience Anglais obligatoire Démarrage : asap Durée : min 3 mois Localisation : Bordeaux de préférence sinon France L'équipe recherche un data Engineer senior pour diriger la migration d'IICS vers DBT sur Snowflake. Le candidat idéal doit jouer le rôle de « traducteur » : il doit être capable de lire des mappages IICS hérités complexes (logique de rétro-ingénierie) et de les refactoriser en modèles SQL DBT modulaires et propres. Compétences requises : Connaissance approfondie d'IICS et de dbt : maîtrise parfaite des deux outils. Spécialisation en validation : expérience dans la vérification de la parité des données 1:1 à l'aide d'outils tels que dbt_audit_helper.) Stack : Snowflake, dbt, IICS et Airflow (pour l'orchestration).
Mission freelance
DevOps Engineer
DEVIK CONSULTING
Publiée le
DevOps
3 mois
400-600 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un DevOps Engineer pour exploiter et améliorer en continu des environnements applicatifs, incluant les serveurs, bases de données, services cloud, outils de monitoring et de logging. Mission principale : L’objectif est de garantir une infrastructure hautement disponible, sécurisée et scalable, tout en optimisant les performances, les processus de déploiement et de tests, ainsi que la documentation. Le rôle inclut également l’animation d’initiatives de partage de connaissances au sein de l’équipe et l’application de bonnes pratiques en gestion de projet afin de renforcer la collaboration et l’efficacité. Les tâches de la mission : L’ingénieur DevOps sélectionné sera en charge de : Mettre en place, exploiter et maintenir la plateforme data régionale, incluant Azure, Databricks et Unity Catalog Garantir que l’infrastructure data soit hautement disponible, scalable, sécurisée et robuste Accompagner l’équipe Data & IA en promouvant les bonnes pratiques DevOps, l’automatisation et l’amélioration continue. Collaborer étroitement avec les data engineers et les parties prenantes à l’échelle régionale Compétences requises : Diplôme Bac+3/Bac+5 en informatique, électronique, mathématiques ou équivalent Plusieurs années d’expérience pratique dans la conception et l’exploitation d’environnements cloud Forte expertise des technologies cloud, notamment Microsoft Azure (Databricks, Unity Catalog) Expérience pratique en SQL et Python Bon niveau d’anglais pour une collaboration efficace dans un contexte international Lieu : Paris
Offre d'emploi
Data analyst (h/F)
1G-LINK CONSULTING
Publiée le
Azure DevOps
Méthode Agile
Snowflake
3 mois
Île-de-France, France
Afin d’accompagner la montée en charge de l’Open Data et de répondre à de nouveaux besoins fonctionnels et techniques, notre client souhaite renforcer ses équipes avec un(e) Data Analyst expérimenté , intervenant sur la plateforme Data & Analytics. Prestations attendues 1. Analyse, préparation et publication des données Open Data Analyse des besoins métiers et réglementaires liés à la publication en Open Data, Conception des modèles de données et des transformations associées, Développement, optimisation et maintien de pipelines automatisés (ingestion, transformation, publication), Garantie de la qualité, cohérence et traçabilité des données, Rédaction et exécution des tests unitaires et fonctionnels, Documentation des traitements, modèles et flux de données, Administration, publication et mise à jour des jeux de données sur le portail Open Data, Développement et maintien des visualisations (dataviz), Analyse et traitement des incidents liés aux chaînes de publication. 2. Qualité, sécurité et collaboration Intégration des exigences de sécurité, confidentialité et conformité réglementaire, Collaboration étroite avec les Product Owners, la MOA, les équipes métiers et techniques, Travail en lien avec les Data Engineers en charge de la plateforme Data Analytics (Snowflake), Participation aux mises en production dans le respect des standards d’architecture, qualité et sécurité, Application des bonnes pratiques de développement collaboratif (Git, revues de code, CI/CD). Environnement technique Plateforme Data & Analytics : Snowflake Langages : SQL, Python Datavisualisation / BI : Power BI, OpenDataSoft / Huwise Outils : GitLab, Azure DevOps Environnements : développement, préproduction, production Méthodologie : Agile , développement collaboratif, industrialisation et traçabilité
Offre d'emploi
Data Ingénieur Spark
NEO SOFT SERVICES
Publiée le
Apache Spark
PySpark
Spark Streaming
12 mois
35000, Rennes, Bretagne
ans le cadre d’un programme de transformation Data mené au sein d’une grande organisation, une équipe projet pluridisciplinaire travaille à la mise en place d’une nouvelle plateforme Data. Nous recherchons un Data Engineer senior disposant d’une expérience confirmée sur les traitements de données en Spark et Python , capable d’intervenir sur l’ensemble de la chaîne de valeur de la donnée. Responsabilités principales En tant que Data Engineer Senior, vous serez amené à : Concevoir, développer et faire évoluer des pipelines d’ingestion de données en batch et en temps réel Mettre en œuvre des traitements Data fiables, industrialisés et facilement observables Participer à la définition et à la construction d’une architecture Lakehouse moderne Assurer la qualité, la traçabilité et la cohérence des données tout au long de leur cycle de vie Contribuer aux démarches d’ industrialisation et d’automatisation (CI/CD, DataOps) Travailler en étroite collaboration avec les architectes Data, les équipes plateforme, les responsables produit et les métiers Appliquer les principes de sécurité by design et veiller au respect des exigences de conformité Produire la documentation technique et participer au partage de connaissances au sein des équipes
Offre d'emploi
Chef de Projet Data / Delivery Master
CAT-AMANIA
Publiée le
Microsoft Excel
12 mois
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un Chef de Projet Data / Delivery Master pour le compte de notre client, acteur majeur dans le secteur des assurances . Au sein du Data Office , vous intégrerez le service Référentiels , dont la mission est de maintenir et de faire évoluer les référentiels stratégiques de l’entreprise (référentiel Personne, Véhicule, Immobilier). Vous jouerez un rôle central dans la coordination et l’accompagnement des équipes projets Data , en assurant la livraison des initiatives dans le respect des délais, des coûts et des standards de qualité, tout en faisant le lien entre les équipes techniques et les parties prenantes métiers. Présence demandée : 3 jours par semaine sur site à Niort. Vos missions principales 1. Rôle PMO au sein du service Suivi budgétaire des projets Saisie et suivi des collaborateurs dans l’outil Clarity 2. Pilotage des projets Data Planifier et organiser les projets de bout en bout (de la phase d’étude à la livraison) Coordonner des équipes pluridisciplinaires (Data Engineers, Data Scientists, Product Owners, etc.) Suivre les KPI projets et proposer des plans d’actions correctifs 3. Gestion de la qualité et des délais Garantir la livraison des projets dans les délais impartis et selon les exigences de qualité Veiller au respect des bonnes pratiques Data (Data Gouvernance, sécurité, conformité) 4. Gestion Agile Animer les cérémonies Agile (Daily, Sprint Review, Rétrospective) Favoriser une culture d’amélioration continue et de collaboration 5. Communication et gestion des parties prenantes Assurer une communication fluide entre équipes techniques, métiers et partenaires Préparer et animer les comités de suivi (COPIL, comités opérationnels) Gérer les attentes et les demandes d’évolution 6. Optimisation des processus Identifier et mettre en œuvre des axes d’amélioration des processus de delivery Automatiser et optimiser les flux de travail pour renforcer l’efficacité opérationnelle
Mission freelance
Ingénieur Data Oracle/SQL/Python
CS Group Solutions
Publiée le
Apache Airflow
Oracle
Python
12 mois
380-400 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Ingénieur Data Oracle/SQL/Python Objectif global : Développement Data Engineer Oracle/SQL/Python Contrainte du projet: Contexte Data Les livrables sont: Développement des nouvelles fonctionnalités TU / Spécifications techniques MCO/RUN Compétences techniques: Oracle - Confirmé - Impératif SQL - Confirmé - Impératif Python - Junior - Important Airflow - Junior - Souhaitable Description détaillée: Nous cherchons un data ingénieur ASAP pour une mission longue durée Compétences : ORACLE impératif SQL impératif Python : c’est un plus mais pas obligatoire Expérience : Participation à des projets liés à la Data et aux Bases de données (injection et exposition des données) Bonne compréhension fonctionnelle Utilisation de GIT pour la gestion de version Niveau recherché : Confirmé (surtout Oracle et SQL, ok pour junior/intermédiaire sur Python) Compétences appréciées (Bonus) : Airflow Apache (ordonnanceur de traitements de données en Python) Trino (exposition des données depuis sources multiples en SQL) Méthodologie Agile SAFE & Scrum Outils de gestion de projet : Jira, Confluence Profil orienté Data Ingénieur On ne recherche pas de profil devsecOps, ni de data architecte Activités : Build 80% & MCO/RUN 20% Conditions de travail : Présentiel souhaité : 2 jours par semaine chez le client
Offre d'emploi
Chef de Projet IA
VISIAN
Publiée le
Gestion de projet
Gouvernance
1 an
40k-45k €
200-430 €
Paris, France
Descriptif du poste L'organisation souhaite accélérer l'identification, le cadrage et la mise en production de cas d'usage d'Intelligence Artificielle, tout en garantissant la cohérence stratégique, la valeur métier et le respect des standards techniques. Il s'agit plus précisément d'aider la responsable du LAB AI à : Orchestrer les parties prenantes (métiers, Data Science, IT, architecture) Structurer un portefeuille de cas d'usage IA Sécuriser le cadrage et la priorisation Faciliter l'adoption et la gouvernance IA Tâches à réaliser A. Pilotage du portefeuille de cas d'usage IA Recueillir et qualifier les demandes Suivre l'avancement, les dépendances, les risques et la valeur créée Mettre en place et tenir à jour des indicateurs (valeur, maturité, coûts, risques) B. Coordination & communication transverse Assurer le lien entre le LAB AI et les SPOC IT et Non IT Vulgariser les concepts IA auprès de publics non techniques C. Animation & facilitation Concevoir et animer des ateliers : Co-design, co-construction, industrialisation Priorisation Retours d'expérience / capitalisation Aligner les parties prenantes et faciliter l'intelligence collective D. Interface avec experts IA, Data Engineers et architectes Valider la faisabilité technique d'un cas d'usage Comprendre les contraintes data, les dépendances, les impacts architecture Contribuer aux comités et instances de gouvernance IA E. Structuration & capitalisation Contribuer à la création ou amélioration : Des référentiels de cas d'usage Des templates de cadrage Du framework méthodologique IA Des bonnes pratiques IA Documenter les retours d'expérience (succès, échecs, apprentissages) Promouvoir et diffuser la culture IA dans l'organisation
Mission freelance
Architecte Domaine Data - Azure (h/f)
emagine Consulting SARL
Publiée le
1 mois
550-680 €
69000, Sainte-Foy-lès-Lyon, Auvergne-Rhône-Alpes
Résumé : Vous rejoignez notre client pour prendre le Lead Technique sur votre domaine. Vous interviendrez pour mettre en place différents environnements et services en cohérence avec l’architecture globale. Responsabilités : A ce titre, vous serez en charge de : Définir des architectures avec un haut niveau de qualité, une valeur métier pertinente et une maintenabilité à long terme, en collaboration avec les équipes Data (DPO, Data Analysts, Data Engineers, Data Scientists, Architectes Data) Fournir un leadership technique, participer aux efforts de développement et représenter l’ensemble des capacités internes et externes de la plateforme. Être un membre actif de la guilde des architectes, en charge de superviser les processus de gestion des données et d’apporter conseils et orientations aux équipes de développement. Assurer la conception et rédiger la documentation des solutions de votre domaine. Soutenir le DPAO dans le traitement des demandes de l’Area Manager Définir la roadmap et accompagner les équipes dans la priorisation de leur backlog Veiller en permanence à l’alignement des produits avec l’architecture globale Vous avez de l’expérience dans la définition et la prise en charge d’architectures data scalables de bout en bout, en tenant compte de l’architecture d’entreprise et des standards de l’industrie. Vous êtes habitué à concevoir, documenter et maintenir des modèles de données logiques et physiques. Must Haves : Une formation supérieure (Bac+5 ou Ecole d’Ingénieur) spécialisée en Data Votre expérience de 8 ans minimum sur un poste similaire en tant que Data Architecte Votre expérience dans la définition et la prise en charge d’architectures data scalables de bout en bout Votre expertise des services Azure Analytics (ADLS, SQL DB, ADF, Power BI) Votre fort leadership technique et votre capacité à définir et piloter des roadmaps Vos excellentes capacités de communication en français et en anglais (Niveau Courant C1) Compétences en leadership technique. Nice to Haves : Votre connaissance du secteur industriel Vos certifications Azure Autres détails : Date de démarrage : ASAP Localisation : Lyon (69). Dans le cadre de vos fonctions, vous pourrez bénéficiez de 2 jours de télétravail par semaine
Mission freelance
Business Analyst Data (F/H)
CELAD
Publiée le
1 an
550-600 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un.e Business Analyst Data pour intervenir chez l’un de nos clients grands comptes. Voici un aperçu détaillé de vos missions : - Analyser les besoins des parties prenantes et des utilisateurs finaux afin de définir des exigences claires sur des projets data. -Cadrer les projets en lien avec les équipes techniques (architectes, data engineers, MOA/MOE) et les directions métiers (finances, conformité, risques, commerciale) : solution, chiffrage, planning. - Piloter les projets : suivi des engagements, reporting et coordination avec les interlocuteurs métiers. - Rédiger les spécifications fonctionnelles détaillées à destination des équipes de développement et préparer les cahiers de recette. - Assurer l’assistance et le support utilisateurs, analyser les incidents et proposer des solutions correctives ou palliatives.
Mission freelance
Responsable d’intégration technique (Programme ERP / Caisse)
Mon Consultant Indépendant
Publiée le
AMOA
ERP
6 mois
500-520 €
Paris, France
Contexte Programme de transformation visant la mise en place d’un nouvel ERP , avec une dimension transverse forte , couvrant les périmètres ERP et Caisse (POS) . Plusieurs projets techniques sont menés en parallèle dans un cadre programmatique structuré. Positionnement Intervention sous la responsabilité du Directeur de programme Travail en lien étroit avec l’intégrateur Appui sur des responsables de chantiers transverses (ERP / Caisse) Rôle de référent intégration technique auprès des directeurs de projet Rôle Pilotage de l’ensemble des chantiers d’intégration technique Coordination transverse des projets techniques ERP et Caisse Supervision des interfaces , reprises de données et flux Garantie de la cohérence globale des intégrations Appui et cadrage des chefs de projet techniques de l’intégrateur Remontée des alertes, risques et arbitrages sur le périmètre intégration Périmètre ERP Caisse / POS Interfaces et flux Reprises de données Chantiers techniques transverses Modalités Taux de sollicitation variable Environ mi-temps en moyenne Intervention flexible , avec des phases plus ou moins chargées selon l’avancement du programme NE PAS POSTULER SI VOUS ÊTES : PMO / PMO Programme Directeur de programme Directeur de projet SI Coach Agile / Agile Lead Responsable infrastructure Architecte Cloud / Architecte plateforme Head of IT / DSI / DSI adjoint Responsable RUN / TMA Expert Data / Data Engineer Consultant AMOA
Offre d'emploi
Chef de projet informatique - Domaine data engineering F/H - Informatique de gestion (H/F)
█ █ █ █ █ █ █
Publiée le
Hadoop
Villeneuve-d'Ascq, Hauts-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
286 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois