Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 027 résultats.
Offre d'emploi
Data Analyst SI Industriel (H/F)
█ █ █ █ █ █ █
Publiée le
SQL
45k-50k €
France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Product Owner Softphonie & Data Governance
UMANTIC
Publiée le
45k-60k €
Guyancourt, Île-de-France
Product Owner - Softphonie Teams & Gouvernance de la donnée (Microsoft Purview) ? Guyancourt (78) | ?? Démarrage : 01/05/2026 | ?? 6 mois renouvelables - 120 jours * * * Contexte Au sein d'un centre de compétences Digital Workplace, l'équipe Collaboration & Messagerie pilote l'intégration, l'ingénierie et l'exploitation N3 des solutions Microsoft (on-premise et on-line). Dans ce cadre, nous recrutons un(e) Product Owner chargé(e) du pilotage fonctionnel des services de Softphonie Teams et des dispositifs de gouvernance de la donnée via Microsoft Purview. Il s'agit d'un rôle fonctionnel et de coordination, non d'expertise technique. * * * Missions principales * Porter la vision produit des services Softphonie Teams et gouvernance de la donnée * Recueillir, analyser et formaliser les besoins des parties prenantes (métiers, IT, sécurité, conformité) * Prioriser et piloter les évolutions fonctionnelles en lien avec la roadmap Digital Workplace * Coordonner les équipes techniques, télécoms, sécurité, gouvernance IT et métiers * Contribuer à la mise en oeuvre de la gouvernance des usages et des données (classification, conformité, bonnes pratiques) via Microsoft Purview * Produire les livrables de cadrage : notes, présentations, reporting
Offre d'emploi
Développeur Full Stack H/F
ASTERIA
Publiée le
Angular
Data Lake
Data Warehouse
6 mois
Monaco
Nous recherchons, pour l'un de nos Clients basés sur Monaco, un Développeur Full Stack H/F. VOTRE MISSION : Notre Client recherche un Développeur Full Stack H/F capable d’intervenir sur l’ensemble de la chaîne applicative, de l’interface utilisateur jusqu’aux services backend, dans un environnement cloud natif et containerisé permettant de valoriser des volumes de données complexes. Il devra concevoir et développer des applications intégrant des interfaces utilisateurs modernes et réactives qui s'appuieront sur des API performantes et scalables pour des cas d'usage Data/IA. Il travaillera en étroite collaboration avec les équipes data/IA pour proposer des solutions innovantes et performantes. Il participera également à l'optimisation des flux de travail de données (Data Pipelines Airflow) en collaboration avec l'équipe Data Engineering. Missions principales : Participer à l’analyse des besoins avec le chef de projet et les parties prenantes (UX/UI, métiers) Concevoir, développer et déployer des applications et chaînes de traitements autour de la Data et l'IA Rédiger et maintenir la documentation technique et fonctionnelle Réaliser les tests unitaires, d’intégration et fonctionnels Mettre en place et maintenir des pipelines CI/CD Collaborer étroitement avec les équipes Data & IA et plateforme Assurer le respect des critères qualité, délais, coûts et satisfaction utilisateur Participer aux revues de code et aux bonnes pratiques de développement Contribuer à l’amélioration continue des processus et outils de développement Veiller à la sécurité des applications et à la conformité des données personnelles
Offre d'emploi
Data manager sur Tours
EterniTech
Publiée le
3DEXPERIENCE (3DX)
3 mois
Tours, Centre-Val de Loire
je cherche pour un de mes clients un Data manager sur Tours Poste : Data Manager Nombre de poste : 1 Expérience : 5 ans Localisation : TOURS - 8 Rue de Boutteville (2jours de TTV par semaine) Démarrage : ASAP Le TITULAIRE s’engage à ce que ses intervenants aient, dès le début de la prestation, les connaissances suffisantes : o dans le domaine du nucléaire (en particulier dans les domaines de l’installation générale, du fonctionnement, du génie civil et de la sûreté), o sur 3DX ou a minima un PLM équivalent. data management - impératif connaissance de l’outil 3DX - impératif Connaissance de 3DX Connaissance des outils E3D et ALLPLAN ou appétence pour montée en compétence rapide sur ces outils
Mission freelance
Expert Kibana / Data Visualisation (F/H)
CELAD
Publiée le
Bitbucket
CI/CD
Data visualisation
12 mois
550-590 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Expert Kibana / Data Visualisation pour intervenir chez un de nos clients dans le secteur banacaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Concevoir, développer et maintenir des dashboards avancés sous Kibana pour assurer une visibilité de bout en bout des systèmes et des flux de données - Transformer des données issues de Elasticsearch en visualisations claires, pertinentes et actionnables - Mettre en place des visualisations interactives (filtres, drill-down, agrégations) pour faciliter l’analyse et la prise de décision - Analyser les données collectées via Filebeat et Logstash afin d’en maximiser la valeur - Exploiter les fonctionnalités de Machine Learning de Kibana pour détecter anomalies, tendances et signaux faibles - Collaborer avec les équipes techniques pour optimiser les requêtes, les index et la qualité des données - Traduire les besoins métiers en dashboards pertinents et exploitables - Assurer la fiabilité, la cohérence et la qualité des données présentées
Offre d'emploi
Data Analyst Paiement / Monétique (H/F)
STORM GROUP
Publiée le
Azure
Google Cloud Platform (GCP)
Monétique
3 ans
50k-55k €
450-470 €
Île-de-France, France
Les missions du data analyst sont : • Participer à la collecte, la transformation et la gestion des données pour en assurer l'intégrité, la sécurité et la qualité • Animer des groupes de travail avec les sponsors, les business analyst du SI Paiement et les membres de la squad Monétique (data viz, data engineer, business analyst) • Réaliser les recettes des traitements d'intégration et de transformation de données • Développer et documenter les user stories/spécifications et les cahiers de recette avec l’assistance du Product Owner • Formation et accompagnement des utilisateurs.
Offre d'emploi
Data Engineer GCP
CAT-AMANIA
Publiée le
Apache Airflow
BigQuery
Data Engineering
1 an
40k-50k €
350-400 €
Lille, Hauts-de-France
Vous serez intégré dans une équipe pluridisciplinaire (Data Engineer, DevSecFinOps) Vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 6 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité
Offre d'emploi
Stream Lead Intégration & Data Migration IT
VISIAN
Publiée le
Cloud
Streamlit
1 an
Île-de-France, France
Contexte Nous recherchons pour la Direction des Services d’Information un Stream Lead Intégration & Data Migration IT. Missions Coordination de la conception des interfaces : coordonner le recueil des exigences fonctionnelles et techniques pour l'interfaçage de la plateforme avec les applications Legacy du SI. Pilotage de l'implémentation : assurer le suivi de bout en bout de la réalisation des interfaces et des flux de données, en gérant les interdépendances avec les autres streams du programme. Pilotage des partenaires : diriger les activités de l’éditeur externe pour garantir le respect des délais et de la qualité des livrables techniques.
Mission freelance
Data Engineer – Tracking & Analytics
Nicholson SAS
Publiée le
BigQuery
Google Tag Manager
Looker Studio
7 mois
340 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre d'une refonte majeure des outils de mesure d'audience, nous recherchons un Data Engineer pour accompagner la migration de l'écosystème analytics (transition de Adobe Analytics vers Piano Analytics ). Intégré(e) au département Solutions Digitales au sein d’une équipe agile, vous serez le garant de la collecte, de la transformation et de la restitution des données issues des canaux digitaux. La mission repose sur une exploitation avancée de la suite Google Data (GTM, BigQuery, Looker Studio). Missions principales 1. Implémentation & Tracking Accompagner les métiers dans la définition des besoins en tracking et des KPI associés. Assurer le paramétrage via Google Tag Manager (GTM) . Réaliser la recette des données lors des phases de test et après mise en production des features. 2. Engineering & Data Pipeline Concevoir et maintenir les flux d'ingestion de données vers BigQuery . Développer des scripts de transformation et d'ingestion (principalement en Node.js et Python ). Assurer le monitoring quotidien des flux (interventions et correctifs si nécessaire). Intégrer de nouvelles sources de données pour enrichir le pilotage global du projet. 3. Restitution & Analyse Fiabiliser et mettre à disposition les données dans Looker Studio . Analyser les données produites pour en extraire des enseignements actionnables. Contribuer à l'amélioration continue des processus et des méthodes de l'équipe. 4. Collaboration Agile Interagir étroitement avec les différents corps de métier (PO, UX, Architectes, Développeurs, Testeurs) pour la co-construction des fonctionnalités. Participer activement aux rituels du train Agile. Modalités pratiques Lieu : Niort (79) – Présence sur site obligatoire 3 jours/semaine . Démarrage : ASAP. Durée : Jusqu'au 31/12/2026. Budget d'achat max : 340 € HT / jour.
Offre d'emploi
Chef de Projet Data (H/F)
OBJECTWARE
Publiée le
Data analysis
3 ans
40k-70k €
400-550 €
Île-de-France, France
🎯 Missions🔹 Pilotage projet Cadrer les besoins métiers en lien avec les parties prenantes (Data, IT, Métiers) Définir la roadmap projet et piloter les plannings (budget, délais, risques) Animer les comités projets (COPIL, COMEX, ateliers métiers) Suivre l’avancement des projets et assurer le reporting 🔹 Coordination Data / IT / Métiers Faire le lien entre équipes techniques (Data Engineers, Architectes, BI) et métiers Garantir la bonne compréhension des besoins fonctionnels Superviser les phases de développement, recette et mise en production 🔹 Data & Gouvernance Participer à la mise en place de référentiels de données (Data Catalog, Data Quality…) Contribuer aux sujets de gouvernance (RGPD, qualité des données, lineage) Accompagner les métiers dans l’exploitation et la valorisation des données 🔹 Delivery & Qualité Piloter les phases de recette (UAT) Garantir la qualité des livrables et leur adéquation aux besoins Assurer la conduite du changement auprès des utilisateurs
Mission freelance
Experts Workday - Intégration / Data Migration / CP
CONCRETIO SERVICES
Publiée le
Reporting
Workday
12 mois
600-1 100 €
Île-de-France, France
Nous recrutons pour le compte de notre client sur trois expertises complémentaires , et cherchons des profils qui en maîtrisent au moins une à un niveau avancé — voire qui combinent plusieurs de ces dimensions. Intégration Workday Vous avez conçu et déployé des intégrations complexes sur Workday — Studio, EIB, Workday Web Services, API REST/SOAP. Vous savez travailler en lien avec des équipes techniques et fonctionnelles, documenter vos architectures et anticiper les risques d'interface. Une expérience sur les modules HCM, Finance ou Payroll est un vrai atout. Reprise de données / Data Migration Vous avez piloté ou exécuté des chantiers de migration de données RH ou financières vers Workday — cartographie des données sources, règles de transformation, chargement via iLoad ou outils tiers, recette et validation. Vous êtes à l'aise avec la complexité des données héritées et vous savez travailler avec les métiers pour arbitrer et qualifier. Chefferie de projet Workday Vous avez déjà piloté des projets Workday en environnement client final, avec une vraie capacité à coordonner des équipes mixtes (IT, RH, Finance, intégrateur externe). Vous maîtrisez les cycles de déploiement Workday, la gestion des jalons, des risques et des parties prenantes, et vous savez maintenir le cap sans perdre le lien terrain.
Offre d'emploi
Data Engineer Big Data/Teradata
VISIAN
Publiée le
Apache Spark
Big Data
Python
2 ans
40k-80k €
400-620 €
Paris, France
Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Big data/Teradata Vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ Teradata CONTROL-M Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) SQL sur SGBD relationel (Teradata) TPT Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea Spark HDFS Python Hadoop
Offre d'emploi
Data Engineer IA (H/F)
STORM GROUP
Publiée le
IA
Large Language Model (LLM)
3 ans
48k-58k €
450-550 €
Île-de-France, France
La mission principale du profil retenu sera • Concevoir et développer des solutions de traitement de données complexes • Implémenter solutions exploitant des modèles d'IA générative • Participer à la mise en place de prompts et de RAG • Collaborer étroitement avec les métiers et les autres membres de l’équipe et d’autres DSI afin garantir l'efficacité et la fiabilité des solutions mises en œuvre. • Démontrer une expérience avérée dans le traitement de données non structurées ainsi que la maitrise de traitement de fichiers de différents types tels que Word, PDF, PowerPoint, CSV
Offre d'emploi
Data Solution Architect
LEVUP
Publiée le
Azure
12 mois
Bruxelles, Bruxelles-Capitale, Belgique
L’architecte de solutions Data guide les activités et les livrables d’analyse, de conception et techniques tout au long d’un projet. Il définit l’architecture de la solution en tenant compte des normes existantes et des exigences du système. Il veille à proposer une solution technique conforme aux besoins du client ainsi qu’à la vision de l’architecture d’entreprise cible. L’architecte de solutions Data fournit au chef de projet toutes les informations nécessaires concernant les activités d’analyse, de conception et de développement, ainsi que sur les enjeux architecturaux, techniques et opérationnels. Il est responsable de bout en bout de la définition et de la mise en œuvre de la solution, et veille à trouver le bon compromis entre les différentes exigences (meilleure solution possible). Créer et maintenir l’architecture de la solution via le document d’architecture de solution (SAD) et obtenir sa validation par le comité d’architecture (Architecture Review Board) Identifier les technologies qui seront utilisées pour le projet en collaboration avec les architectes applicatifs et d’entreprise Recommander les méthodologies de développement, frameworks et règles de codage en tenant compte des standards d’architecture et des besoins métier (fonctionnels et non fonctionnels), et en assurer l’application Fournir la conception globale et la structure de l’application S’assurer que la solution finale respecte l’architecture définie Identifier les tâches d’ingénierie logicielle pour le chef de projet Accompagner et guider les autres membres techniques de l’équipe (développeurs et concepteurs) et les aider sur les tâches complexes Assister le chef de projet dans l’estimation des coûts et des bénéfices du projet, notamment sur les aspects techniques Collaborer avec les équipes de test pour identifier les besoins en infrastructure et en support Veiller à ce que les décisions techniques soient prises et documentées Maximiser la réutilisation des actifs existants et des bonnes pratiques dans le cadre du projet
Mission freelance
Consultant data ODI / Python
ESENCA
Publiée le
ETL (Extract-transform-load)
ODI Oracle Data Integrator
Python
1 an
Lille, Hauts-de-France
Localisation : Région lilloise Disponibilité : ASAP Contexte : Projet stratégique de transformation et modernisation Data Objectif de la mission Dans le cadre d’un programme de modernisation de la plateforme data, la mission consiste à analyser, documenter et faire évoluer des flux de données existants, avec une perspective de transformation vers des solutions plus modernes basées sur Python. Missions principales Réaliser un inventaire complet des flux de données existants (ODI) Analyser les dépendances, les logiques métiers et les enjeux associés Produire une documentation détaillée des flux (rétro-documentation) Améliorer la lisibilité, la maintenabilité et la gouvernance des traitements Contribuer à la transformation et à la migration des flux vers une nouvelle plateforme Participer à la modernisation de la stack data (orientation Python) Collaborer étroitement avec les équipes techniques et data Environnement technique Oracle Data Integrator (ODI) – expertise impérative Python (manipulation de données, automatisation, ETL) Environnements Data / ETL / flux batch
Mission freelance
DATA Engineer - AWS (DataOps)
Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
AWS Glue
6 mois
450-500 €
Paris, France
Nous recherchons un Data Engineer pour industrialiser un prototype d’application existant. Le projet implique une forte dimension infra et scalabilité , avec l’objectif de passer d’un prototype à une architecture robuste, maintenable et industrialisée. Le candidat interviendra également sur des sujets de refonte de la codebase et de préparation du déploiement en infrastructure as code . 🎯 Missions principales Industrialiser un prototype d’application data en environnement SaaS Revoir la codebase existante pour anticiper les enjeux de scalabilité Concevoir et mettre en place une architecture data robuste et évolutive Participer à la mise en place d’une approche Infrastructure as Code Construire et maintenir des pipelines de données fiables et scalables Travailler sur des problématiques d’architecture cloud et d’industrialisation Collaborer avec des interlocuteurs techniques (profil très orienté tech) 🛠 Stack technique Cloud : AWS (GCP apprécié mais non obligatoire) IaC : Terraform Orchestration : Airflow Langage : Python Environnement : SaaS / Data Engineering / Infra scalable
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1027 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois