L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 779 résultats.
Mission freelance
250762/Data Engineer TERADATA ET DATAVIZ
WorldWide People
Publiée le
Data visualisation
Teradata
1 mois
400 €
Paris, France
Data Engineer TERADATA ET DATAVIZ Project context Modélisation de données • Mode de chargement dans l’entrepôt (ETL) : BTEQ • Teradata, développements sous Teradata • Dataviz : Power BI et MSBI • CONTROL-M • Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) • SQL sur SGBD relationel, Shell • TPT – réalisation de scripts • Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea • Création de chaînes de déploiement DEVOPS • Mise en production de composants applicatifs avec livrables documentaires associés (DTA, feuille de route, ...) Goals and deliverables Sofskills : Sens du service. Bon relationnel et bonne communication écrite et orale. Ecoute. Esprit d'analyse et de synthèse. Capacité d'organisation et d'adaptation. Capacité à travailler en équipe. Autonomie.
Offre d'emploi
Data Engineer Senior
LEVUP
Publiée le
AWS Cloud
Snowflake
12 mois
Liège, Belgique
Présence sur site 3j/semaine Mission Construire et maintenir des pipelines de données fiables et scalables sur AWS et Snowflake. Responsabilités Développer des pipelines ETL/ELT Intégrer et transformer les données Modéliser les données (data warehouse) Optimiser les performances et les coûts Assurer la qualité des données (tests, monitoring) Orchestrer les workflows (Airflow ou équivalent) Collaborer avec les équipes data et métier Stack technique AWS (S3, Glue, Lambda, Redshift) Snowflake SQL Python Airflow / dbt / Git Profil Expérience en data engineering Bonne maîtrise SQL et modélisation Expérience cloud (AWS) Autonomie, rigueur Bonus Docker CI/CD Expérience data lake / lakehouse
Offre d'emploi
DATA ENGINEER PYTHON
UCASE CONSULTING
Publiée le
Azure
Azure Kubernetes Service (AKS)
Jenkins
3 ans
40k-60k €
500-580 €
Paris, France
2 DESCRIPTION DE LA MISSION 2.1 Objectifs La prestation, objet du présent cahier des charges, est une prestation à temps plein pour 1 Data Engineers Python. Vous interviendrez d’un nouveau lot sur un projet déjà initié il y a un an. Vous intégrerez une équipe existante composée de 3 Data Engineers et d’un Chef de Projet. Au sein de l’équipe, vous aurez à charge la réalisation de ce lot projet. Le projet est piloté en agilité, par conséquent le delivery sera détaillé sous formes d’US. Chaque US comprend du développement, des tests, de la documentation. Les technologies associées sont Python, Pandas/Polars, Kubernetes et Azure. 2.2 Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en agilité, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est identique, seul le détail des US (User Stories) change. A noter que ces livrables sont réalisés par l'équipe projet, il n'y a pas de responsabilité de production individuelle. Les sprints projet s'échelonnent généralement sur 2 semaines. Sur la base des 3 mois de prestation, il y aurait donc 6 sprints. Livrables n°X : Sprint n°X Lot 1 : développement des US et tests associés ; Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d'exploitation ; Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; Lot 4 : Mise en place du monitoring ; 2.3 Dates souhaitées de début et de fin de mission Date de début : 13/04/2026 Compétences sur les méthodes et les outils Requises • maîtrise du langage Python et de son écosystème (packaging, gestion de versions…) • maîtrise des librairies Data, en particulier Pandas et/ou Polars • maîtrise de la CI/CD sous Jenkins • maîtrise du cloud, en particulier Azure • expérience dans le développement de job batch sur Kubernetes (AKS) • bonnes pratiques de développement
Offre d'emploi
Data Scientist / Python – IA & AIOps (H/F)
STORM GROUP
Publiée le
AI
Machine Learning
Python
3 ans
50k-55k €
500-520 €
Île-de-France, France
Contexte du poste : Nous recherchons un Data Scientist confirmé, expert en Python et en Data Learning, pour intervenir sur un projet d’évolution d’outils d’Event Management vers une plateforme intégrant des capacités avancées d’AIOps. L’objectif est de renforcer l’automatisation, la corrélation d’incidents et la prédiction au sein d’un environnement de supervision IT. Missions principales : - Participer à la migration d’un outil d’Event Management vers une solution intégrant des modules AIOps. - Analyser les événements et concevoir des modèles de corrélation permettant d’identifier, regrouper et prioriser les incidents. - Développer des modèles de Data Learning / Machine Learning pour améliorer la détection et la prédiction d’incidents. - Implémenter des scripts d’auto‑remédiation et des mécanismes intelligents de traitement d’alertes. - Créer, enrichir et intégrer des situations / patterns d’événements dans la plateforme AIOps. - Collaborer avec les équipes d’exploitation, d’architecture et de développement pour assurer une intégration fluide des modèles. - Contribuer à l’évolution continue des outils et pipelines IA/ML.
Offre d'emploi
Data Engineer Snowflake DBT ELT Senior
Atlanse
Publiée le
DBT
ETL (Extract-transform-load)
Microsoft Power BI
1 an
55k-65k €
400-550 €
Guyancourt, Île-de-France
En tant que Data Engineer Senior, vous intervenez au sein d’un environnement data en forte structuration pour concevoir, industrialiser et faire évoluer les flux de données dans un écosystème Snowflake / dbt / ELT. Votre rôle Conception et industrialisation des flux data dans Snowflake · Concevoir, développer et maintenir des pipelines ELT dans un environnement Snowflake / dbt · Intégrer et transformer des données issues de différents environnements · Concevoir des modèles de données · Contribuer à l’industrialisation des traitements et à la fiabilisation de l’alimentation du data warehouse Snowflake Qualité, traçabilité et performance data · Fiabiliser les chaînes de transformation dbt · Optimiser les traitements dans Snowflake · Surveiller le bon fonctionnement des flux en production, analyser les anomalies de chargement ou de qualité de données, mettre en œuvre les actions correctives Evolution du socle data · Accompagner les projets de transformation ou de migration de solutions data existantes vers un socle plus moderne, notamment autour de Snowflake · Travailler en lien étroit avec les équipes data, IT et métiers · Contribuer à l’amélioration continue des standards de développement, de documentation, de gouvernance et de sécurité
Mission freelance
Architecte Solution Cloud-Native
Codezys
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
6 mois
450-530 €
Paris, France
Contexte de la mission Au sein du département Urbanisations et Applications de la Direction des Systèmes d'Information (DSI) de notre groupe audiovisuel français, nous gérons une quarantaine d'applications couvrant divers domaines, tels que la planification, l'optimisation des ressources, la gestion des incidents, et bien d'autres encore. Avec la transition de nos infrastructures IT vers le Cloud, il est devenu essentiel de faire évoluer nos modèles d'architectures logicielles afin de répondre efficacement aux besoins des différentes directions métiers. Nous recherchons une expertise en architecture solution pour travailler en étroite collaboration avec notre architecte d'entreprise. Cette mission est cruciale pour assurer l'alignement de nos projets IT avec les exigences fonctionnelles et l'écosystème de France Télévisions. La personne retenue devra proposer des modèles d'architectures logicielles Cloud-Native et en assurer la mise en œuvre. Objectifs et livrables Moderniser nos infrastructures IT afin de garantir une meilleure efficacité de nos projets. Proposer des modèles d’architectures logicielles Cloud-Native adaptés à nos besoins spécifiques. Piloter la mise en œuvre des principes d'architecture au sein des projets en cours. Collaborer avec les équipes projets, Cloud, sécurité, réseaux et exploitation pour concevoir des architectures sur mesure. Fournir des modèles et templates de développement, notamment à travers GitLab-CI. Accompagner et conseiller les équipes projet lors de l'implémentation des architectures. Superviser les développements pour assurer leur cohérence avec le modèle architectural défini. Assister l'Architecte d'Entreprise dans les travaux de la Design Authority et déployer ces architectures sous forme de standards et normes de développement.
Mission freelance
Consultant(e) technique SAP Data Migration SQL ADM
Signe +
Publiée le
SAP ECC6
SAP S/4HANA
SQL
6 mois
Le Plessis-Robinson, Île-de-France
Bonjour, Nous recherchons un(e) Développeur SAP Data Migration (SQL / ADM) pour un client basé à Le Plessis-Robinson : Contexte : Dans le cadre d’un projet de migration SAP ECC vers SAP S/4HANA, notre client met en œuvre l’outil SAP ADM (éditeur Syniti) pour piloter la migration des données. Profil : Développeur / Consultant technique orienté Data Migration SAP 5 à 10 ans d’expérience minimum Excellente maîtrise du SQL (critique) Bonne connaissance des tables SAP (ECC idéalement) Expérience en migration de données / transformation / mapping Connaissance d’un outil de migration (ADM, LSMW, ETL…) appréciée Capacité à évoluer dans un environnement projet structuré Environnement : SAP ECC / SAP S/4HANA SQL SAP ADM (formation prévue) Démarrage : ASAP Durée : À définir (long terme) Couverture : Temps plein Hybride : 3 jours sur site à Le Plessis-Robinson / 2 jours télétravail TJM : Selon profils Vous êtes intéressé(e), merci de m’adresser votre CV à Cordialement Célian Mahieu 07 50 75 68 53 Signe +
Offre d'emploi
Business Analyst DATA / AMOA - Niort (H/F)
STORM GROUP
Publiée le
Informatica
Oracle
3 ans
45k-55k €
400-450 €
Niort, Nouvelle-Aquitaine
• Recueillir et analyser les besoins métiers, • Apporter le conseil nécessaire aux direction Métier sur l’exploitation de la donnée, • Participer au cadrage des projets Data (études d’impacts, faisabilité) • Contribuer aux études d’opportunité et de faisabilité sur le volet Data, • Garantir la cohérence fonctionnelle et technique du SI • Réaliser les recettes fonctionnelles, qualifier les anomalies et suivre les corrections • Produire des livrables fonctionnels (modélisations de données, SFG, SFD), • Tenir à jour la base documentaire du patrimoine, • Garantir la bonne satisfaction métier Data (qualité, engagement, cout, délai).
Offre premium
Mission freelance
Architecte Entreprise / Design Authority
KUBE Partners S.L. / Pixie Services
Publiée le
Enterprise Architect
3 mois
Île-de-France, France
Architecte entreprise: Collaborer avec les équipes métiers, IT, squads, architectes solutions et le management pour analyser les problématiques et proposer des démarches efficaces. Comprendre et partager l’existant, identifier les enjeux de transformation, poser les principes d’architecture et définir les scénarios de solutions en évaluant leurs impacts avec les experts concernés. Définir les grandes fonctions, objets gérés et flux de données entre applications, et produire les supports nécessaires à la prise de décision. Garantir l’intégration optimale des applications dans le SI, recommander les solutions fonctionnelles pertinentes et assurer le rôle de Design Authority. Maintenir et promouvoir les principes et normes d’architecture fonctionnelle, représenter la Design Authority et veiller à leur respect. Contribuer au cadre d’architecture d’entreprise et à la cartographie.
Offre d'emploi
Expert NiFi (H/F)
OMICRONE
Publiée le
Apache NiFi
Big Data
DevOps
2 ans
40k-45k €
400-500 €
Île-de-France, France
Expert NiFi (H/F) Dans le cadre d’un projet data, nous recherchons un Expert Apache NiFi pour intervenir chez l’un de nos clients. 🔍 Profil recherché : Expérience confirmée sur Apache NiFi Mise en place et optimisation de flux de données Bonne maîtrise des concepts ETL / ingestion / transformation Expérience sur des environnements data (Big Data / Data Platform) Connaissances en SQL et scripting (Python, Shell…) 🤝 Qualités attendues : Autonomie et proactivité Capacité à travailler en équipe Esprit d’analyse 📍 Mission longue – démarrage ASAP
Mission freelance
[FBO] Product Owner Data sur des données RH - Saint Denis - 1419
ISUPPLIER
Publiée le
9 mois
300-430 €
Saint-Denis, Île-de-France
Contexte de la mission Product Owner Data dans le cadre du projet DataSmart RH Les données RH sont actuellement exploitées manuellement via Excel, ce qui engendre un risque d'incohérences et une sécurité limitée. Le besoin est de disposer d'une base unique, automatisée, sécurisée et actualisée quotidiennement. Nature de la prestation à effectuer : Il/Elle adressera les actions suivantes : - Designer les alimentations des données (fréquence, groupes de données, mode delta et/ou full, stockage et data préparation) - Réaliser les spécifications détaillées des besoins d’extraction vis-à-vis de ADP et SuccessFactors afin de répondre aux besoins métier et de respecter ceux de l’environnement Data de Generali (pour la création du Data Domain) - Prendre en compte les autres systèmes providers de données (bases mortes et autre système opérationnel de formations, WeLearn/Cornerstone) - Être force de proposition pour la gestion des habilitations sur les données - Participer à la recette des extractions et des imports dans le Data Domain Il/Elle sera sous la responsabilité du manager de l'équipe Pilotage SIRH et travaillera avec l’ensemble des parties-prenantes : - L’équipe métier : Pilotage RH - L’équipe AMOA Pilotage SIRH - L’équipe IT RH - L’équipe IT DATA - Les éditeurs 2. Management de projets product owner Référent de la vision métier au sein des équipes agiles : - Collabore avec les métiers pour élaborer la vision du produit - Partage cette vision avec les équipes de développement agile - Mène une réflexion stratégique préparatoire des versions à venir Priorisation par la valeur du contenu métier : - Identifie les fonctionnalités et exigences attendues - Priorise toutes les users stories au sein du Product Backlog - Maintien le product backlog et cherche en permanence à maximiser la valeur métier pour les utilisateurs Transmission aux équipes agiles pour assurer la compréhension du besoin métier : - Découpe chaque fonctionnalité en user story pouvant être implantée en une seule itération - Définit les critères d'acceptation indispensables à sa bonne compréhension par les équipes agiles - Intègre et suit la prise en compte des exigences non fonctionnelles (ENF : accessibilité, sécurité IT, RGPD, RSE...) dès l'étape de conception - Contribue aux réunions agiles avec les équipes de développement et le Scrum Master Recette des éléments métiers produits par l'équipe agile : - Réalise ou organise le déroulement des tests utilisateurs - Récolte les feedbacks des utilisateurs pour les équipes de développement Objectifs et livrables Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP •
Offre d'emploi
BUSINESS ANALYST DIGITAL ASSURANCE (H/F)
GROUPE ALLIANCE
Publiée le
Confluence
JIRA
Kanban
50k-60k €
France
ACCROCHE SI TRANSFORMER UN BESOIN MÉTIER EN SPÉCIFICATION CLAIRE EST TON SUPER POUVOIR, TU ES PEUT-ÊTRE CELUI QU’ON ATTENDAIT ... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à la compréhension métier et à la traduction fonctionnelle Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur de l'assurance, tu participeras à la compréhension, analyse et formalisation des besoins métiers pour les traduire en solutions fonctionnelles et techniques, contribuant ainsi à l'optimisation et à l'évolution des processus et outils de distribution : Les besoins utilisateurs, tu recueilleras Les processus métiers, tu analyseras Les spécifications fonctionnelles, tu rédigeras Le lien entre les équipes métier et IT, tu assureras La validation des livrables, tu piloteras Les plans de test fonctionnels, tu construiras Ton équipe, tu accompagneras Aux ateliers, comités et instances projet, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de 10 ans minimum Expert(e) en analyse fonctionnelle, expression de besoin, modélisation de processus et conduite du changement Habile avec les outils Jira, Confluence, BPMN, UML, Agile AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
Mission freelance
POT9115 - Un Data Engineer Airflow Confirmé sur Tours
Almatek
Publiée le
Python
6 mois
Tours, Centre-Val de Loire
Almatek recherche pour l'un de ses clients un Un Data Engineer Airflow Confirmé sur Tours. Objectif : Analyser l’usage, l’organisation et/ou la performance d’Airflow dans le service, afin d’identifier des axes d’amélioration, risques ou optimisations. Compétences requises: Airflow - Confirmé - Impératif Python - Confirmé - Impératif Power BI - Confirmé - Appréciable Mission possible en Full Distanciel avec quelques déplacement à Tours au démarrage Almatek recherche pour l'un de ses clients un Un Data Engineer Airflow Confirmé sur Tours. Objectif : Analyser l’usage, l’organisation et/ou la performance d’Airflow dans le service, afin d’identifier des axes d’amélioration, risques ou optimisations. Compétences requises: Airflow - Confirmé - Impératif Python - Confirmé - Impératif Power BI - Confirmé - Appréciable Mission possible en Full Distanciel avec quelques déplacement à Tours au démarrage
Mission freelance
Architecte Data & IA – Plateforme & Socle
VISIAN
Publiée le
Azure
Azure DevOps
Databricks
1 an
400-550 €
Île-de-France, France
L’Architecte Data & IA intervient comme référent sur les choix techniques, la cohérence des architectures et l’industrialisation des usages Data/IA. Missions principales 1. Architecture & gouvernance technique Concevoir et maintenir les architectures cibles Data & IA (MLOps, LLMOps, DataOps) Garantir la cohérence globale de la plateforme Data & IA Contribuer à la mise en œuvre d’une gouvernance unifiée des données (sécurité, traçabilité, lineage) Superviser l’intégration et l’évolution d’une plateforme Data Lakehouse (type Databricks) Participer à l’évolution de l’offre de service du socle Data & IA 2. Industrialisation IA & MLOps Structurer les pratiques MLOps / LLMOps (CI/CD, monitoring, automatisation) Accompagner les équipes dans la mise en œuvre des bonnes pratiques DataOps et ML Garantir la fiabilité des pipelines de production IA Participer à la standardisation des modèles de déploiement IA 3. Innovation & plateforme IA Préparer la plateforme pour les usages d’IA générative et agentique Concevoir des architectures d’intégration pour les modèles LLM (internes et externes) Développer des approches AI by Design (conformité, sécurité, gouvernance) Contribuer aux initiatives d’innovation (observabilité IA, optimisation des coûts, temps réel) 4. Accompagnement & montée en compétences Encadrer les équipes DataOps et MLOps Diffuser les bonnes pratiques d’architecture et d’industrialisation Accompagner la montée en maturité sur les outils Data & IA Travailler en collaboration avec les équipes Data et Delivery Livrables attendus Architecture cible Data & IA unifiée Framework MLOps / LLMOps industrialisé (CI/CD, observabilité, MLFlow…) Guide de bonnes pratiques DataOps Tableau de bord de suivi de maturité IA / ML Recommandations d’évolution de la gouvernance Data & IA
Mission freelance
POT9134 - Un Consultant expert – Data Migration SAP (Alteryx apprécié) sur Toulouse
Almatek
Publiée le
Alteryx
6 mois
Toulouse, Occitanie
Almatek recherche pour l'un de ses clients, Un Consultant expert – Data Migration SAP (Alteryx apprécié) sur Toulouse Nous recherchons actuellement un consultant expert en data migration SAP, avec une maîtrise des environnements S/4HANA (héritage ECC). La connaissance d’Alteryx est appréciée. Éléments de cadrage du besoin Contexte & outils Programmes de transformation SAP S/4HANA Outils de migration incluant notamment Alteryx (flux de transformation) Positionnement Profils confirmés à seniors Intervention opérationnelle (hands-on) sur les flux de migration Capacité à structurer les travaux et à encadrer ponctuellement des profils juniors Périmètre Master Data (clients, fournisseurs, articles) Enjeux de qualité, transformation et fiabilisation Interventions possibles sur des objets transactionnels / opérationnels selon les phases Langues Français et anglais requis Niveau d’autonomie Élevé dès le démarrage Localisation : Toulouse, avec déplacements à la marge (principalement Paris) Présence : hybride (1 à 2 jours/semaine sur site, variable selon phases – cutover/go-live)
Offre d'emploi
Senior Data Engineer Python / Kafka / Flink (On-Premise)
Deodis
Publiée le
Apache Kafka
Python
1 an
40k-45k €
400-500 €
Île-de-France, France
Nous recherchons un(e) Senior Data Engineer pour concevoir, déployer et maintenir une plateforme de données robuste et performante dans un environnement entièrement on-premise. Vous serez responsable du développement de pipelines batch et temps réel en Python, de l’orchestration via Apache Airflow et du traitement de flux avec Apache Flink, tout en assurant l’exploitation de Apache Kafka pour le streaming à grande échelle. Vous contribuerez également à l’observabilité et à la qualité des données via la stack Elasticsearch / Logstash / Kibana, en collaboration étroite avec les équipes Data et DevOps. Ce rôle clé implique un haut niveau d’exigence technique, la fiabilité des systèmes en production et l’accompagnement des ingénieurs plus juniors
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1779 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois