Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 039 résultats.
CDI

Offre d'emploi
Développeur Senior BI / Data (MSBI / Azure Data Factory)

Amontech
Publiée le
Azure Data Factory
Azure DevOps
BI

1 an
Paris, France

🎯 Contexte Nous recherchons un Développeur Senior BI / Data pour renforcer l’équipe Support Fund Management. Vous serez intégré(e) à l’équipe support et travaillerez en étroite collaboration avec les Business Analysts. 🔎 Missions Intégré(e) à l’équipe projet, vous serez en charge de : Participer au cadrage des solutions à implémenter. Développer les User Stories (US). Contribuer à la recette, l’UAT et la mise en production. Assurer la maintenance des applications. Rédiger la documentation technique. Améliorer en continu le modèle de développement. 🛠 Compétences recherchée Maîtrise des outils Microsoft BI (SQL Server 2019/2022, SSIS, SSRS). Maîtrise des bases de données relationnelles et SQL. Expérience avec Azure BI Data Factory. Compétences en Python, librairie Pandas appréciée. Bon niveau sur Azure DevOps. Expérience en Asset Management / finance de marché souhaitée. 📍 Localisation & Conditions Basé à Paris Démarrage : dès que possible

Freelance

Mission freelance
Data Manager

Trait d'Union Consulting
Publiée le
SQL
UML

3 mois
Boulogne-Billancourt, Île-de-France

Rejoignez un grand groupe international au cœur d’un programme de transformation digitale et data. La mission consiste à accompagner la structuration de la plateforme Data , utilisée par de multiples équipes métiers et techniques, et à garantir la bonne gestion et gouvernance des données. Missions principales Définir et appliquer les standards de Data Management (naming, documentation, règles de modélisation, conformité RGPD/SSI). Modéliser et garantir l’architecture fonctionnelle de la plateforme Data. Collaborer avec les Product Owners et Data Engineers pour concevoir et valider les solutions data. Gérer le portefeuille data : qualité, complétude, cohérence des métadonnées, mise à jour du glossaire métier et du lineage. Animer des ateliers, formations et sessions de support auprès des équipes pour diffuser les bonnes pratiques. Produire des reportings réguliers et mettre en évidence les risques, gaps et opportunités. Contribuer à la roadmap et à l’évolution des assets data au niveau du groupe.

Freelance

Mission freelance
Data Analytics Engineer *ServiceNow/Snowflake*

Trait d'Union Consulting
Publiée le
Apache Airflow
DBT
ServiceNow

6 mois
500-550 €
Issy-les-Moulineaux, Île-de-France

Dans le cadre du renforcement des capacités analytiques autour des processus ITSM, nous recherchons un consultant Data Analytics Engineer autonome. Vous interviendrez sur la mise en œuvre de la connectivité entre ServiceNow et Snowflake , afin d’exploiter les données ITSM (incidents, demandes, changements, problèmes…) et d’alimenter des cas d’usage analytiques pour plusieurs départements internes (IT, qualité, gouvernance, opérations…). Missions principales Établir et sécuriser la connexion technique entre ServiceNow ITSM et Snowflake. Extraire et charger les données des modules ITSM (Request, Incident, Change, Problem Management). Concevoir une pipeline automatisée d’ingestion (batch ou incrémentale). Structurer les données dans Snowflake (logique modulaire, réutilisable, exploitable). Mettre en place des métadonnées, logiques de rafraîchissement et suivi de qualité. Documenter pipeline, schémas de données et points de reprise. Environnement technique Source : ServiceNow ITSM (REST API, exports planifiés) Destination : Snowflake Orchestration : Airflow (ou équivalent) Transformation : DBT Core / SQL Modélisation : DrawIO ou équivalent Visualisation : Tableau CI/CD & versioning : GitLab Documentation : Confluence, Jira

Freelance
CDI

Offre d'emploi
Big Data Engineer

KLETA
Publiée le
Apache Kafka
DevOps
ELK

3 ans
Paris, France

Environnement Technique :  Tous composants de la distribution HDP 2.6.5 (Hortonworks)  Tous composants de la distribution HDP 3.1.x (Hortonworks)  Technologie KAFKA  Compétences de développements en Shell, Java, Python  Moteur Elasticsearch incluant les fonctionnalités soumises à licence  Docker, Kubernetes, système distribué sur Kubernetes  Infrastructure as Code  DevOps : Ansible, Git, Nexus, Jenkins, JIRA, etc...  Os Linux, Kerberos, SSL, Ldap, RDBMS, SQL Mandatory :  Tous les composants des distributions Hadoop  Tous les composants de la suite Elasticsearch : Kibana, Logstash, suite beats  Administration de composants big data

Freelance

Mission freelance
Data Project Manager

Phaidon London- Glocomms
Publiée le
Architecture
Azure Data Factory
Budget Management

6 mois
400-530 €
Lyon, Auvergne-Rhône-Alpes

Responsable du pilotage global de la roadmap technologique en lien avec les objectifs business. Vous gérez le budget, le planning et l’animation des instances de gouvernance (COMEX et opérationnelles), tout en assurant l’alignement des jalons techniques avec les jalons métiers. Vous supervisez la réalisation des projets techniques (design, développement, tests, mise en production) en coordonnant les équipes internes et externes (développement, infrastructure, architecture, sécurité). Vous assurez le suivi des développements et des recettes, notamment sur les flux de données. Vous réalisez les cadrages et spécifications techniques : traduction des besoins fonctionnels, définition des flux entre les systèmes (PRM, Salesforce, back-offices, filiales), validation des choix d’architecture, conformité RGPD et sécurité des échanges. Enfin, vous pilotez la stratégie de migration des systèmes existants, en collaboration avec les SI producteurs et consommateurs de données.

Freelance
CDI

Offre d'emploi
Ingénieur Big Data DevOps

OBJECTWARE MANAGEMENT GROUP
Publiée le
Apache NiFi

3 ans
Île-de-France, France

Attentes principales du client RUN & Support avancé Assurer le MCO (Maintien en Condition Opérationnelle) des plateformes Big Data. Résoudre les incidents N2/N3 et analyser les root causes pour fiabiliser la production. Accompagnement et relation client Être capable d’ expliquer et de guider les utilisateurs dans l’usage des plateformes. Jouer un rôle de référent technique sur NiFi / Kafka / ingestion de données. Build & industrialisation Concevoir et automatiser les offres d’ingestion de données. Participer aux déploiements NiFi , à l’ industrialisation des flux , et à la mise en place de CI/CD. Administration & Sécurisation Gérer et sécuriser les clusters Big Data et les environnements applicatifs (on-prem et cloud). Gérer le cycle de vie des technologies : upgrades, patchs, migrations. Contribution aux projets Travailler dans un cadre Agile (Scrum/Kanban) . Développer (Java/Spring, React, CSS/JS) et intégrer les solutions nécessaires. Apporter une veille technologique et être force de proposition pour améliorer les plateformes. Compétences clés recherchées Big Data : Apache NiFi (le plus attendu), Kafka, HDFS, Hive, Hue, IBM COS, Oracle DB. CI/CD & automatisation : Ansible, GitLab CI, ArgoCD, Vault. Systèmes & infra : Linux RHEL, Kubernetes, OpenShift, environnements stateful. Dev : Java (Spring Boot / Security), React, CSS3, JS, frameworks UI (Ant Design, Bootstrap, Material). Méthodes : Scrum, Kanban.

Freelance
CDI

Offre d'emploi
Tech Manager Data Engineering Devops Finops (PMS, OPERA Cloud)

Byrongroup
Publiée le
Big Data
DevOps
FinOps

6 mois
40k-45k €
680-730 €
Neuilly-sur-Seine, Île-de-France

Nous recherchons pour l'un de nos clients un Tech Manager Data Engineering Devops Finops dans le secteur du loisirs : Vos missions principales : Encadrement d’équipes Data (tech leads, delivery manager) et pilotage de leurs activités : suivi opérationnel, organisation agile, reporting aux responsables de domaine. Déploiement et optimisation de connecteurs Data, intégration des données dans l’écosystème interne et alimentation des systèmes aval (finance, vente, fidélisation, etc.). Participation au delivery et au run : suivi des incidents, plan de rattrapage, monitoring et amélioration continue de la performance (DevOps, FinOps). Contribution à la roadmap Data : cadrage, ajustement organisationnel, définition des priorités, validation des choix techniques et de modélisation (Snowflake, patterns, qualité). Animation de la relation avec les parties prenantes internes et externes : suivi des chantiers, coordination transverse et communication claire sur l’avancement et les incidents.

Freelance

Mission freelance
Data Engineer Semarchy  xDM / xDI Montpellier

WorldWide People
Publiée le
Semarchy

6 mois
330-350 €
Montpellier, Occitanie

Data Engineer Semarchy xDM / xDI Montpellier Stambia Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Concevoir et administrer les modèles MDM sous Semarchy xDM. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDM / xDI, SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition.

Freelance
CDI

Offre d'emploi
Architecte Solution Stream IT Data Monétique

VISIAN
Publiée le
Architecture
Monétique

1 an
40k-45k €
140-620 €
Montreuil, Île-de-France

Offre d'emploi : Architecte Solution Stream IT Data Monétique Dans un contexte de révolution numérique des paiements par carte et de l'initiative de paiement paneuropéen, une grande banque européenne recherche un architecte solution pour son domaine data monétique. Contexte Le monde des paiements par carte est en pleine effervescence et promet une transformation numérique sans précédent. Les termes tels que data lake, event stream, base de données distribuée, consistency, availability, RPO/RTO, acceptation, acquisition, SLA, Cloud vous interpellent ? Cette annonce est faite pour vous ! Missions principales Définir les évolutions des composants du stream IT data monétique et documenter les changements et leurs impacts Assurer la cohérence des solutions avec le cadre d'architecture du groupe bancaire Garantir l'évolutivité et la résilience du système Collaborer avec les équipes métier, architectes d'entreprise, sécurité et développement

CDD

Offre d'emploi
Data Analyst Référentiel (CDD) H/F

S-quaar
Publiée le
Master Data Management (MDM)
Microsoft Excel
SQL

6 mois
30k-32k €
Brest, Bretagne

Lieu : Finistère (29) Salaire : 30 à 32 K€ annuel brut (sur 13 mois) Rythme : 1 jour de télétravail par semaine à l'issue d'une période d'intégration Nous recherchons pour notre client, acteur industriel, un Data Analyste Référentiel H/F pour un contrat de 6 mois en CDD. Cette mission s'inscrit dans le cadre d’un renforcement des équipes SI sur des sujets stratégiques de gestion et de fiabilisation des données statiques et dynamiques de la base article (+10 000 articles référencés). VOS MISSIONS : Au sein d’une équipe à taille humaine et rattaché au pôle Systèmes d’Information et à l’équipe projet ERP (pour la partie Build), et dans le cadre d’un projet de déploiement d’un ERP sur 8 sociétés et de l’intégration de 8 bases articles hétérogènes dans le référentiel core model vos missions consistent à : Compiler et consolider les données articles (statiques et dynamiques) dans un objectif de qualité et de fiabilité. Contrôler la qualité des données et assurer leur cohérence dans les outils de gestion avant intégration dans le référentiel Core Model. Transmettre les données consolidées à la Responsable Applicatif du référentiel Core Model pour intégration et contrôle (travail en binôme). Gérer et enrichir les référentiels de données articles via des requêtes SQL : création ; mise en gamme ; référencement. . Réaliser des extractions, traitements et manipulations de bases de données via SQL et Excel. Proposer des axes d’amélioration dans les méthodes de collecte, de traitement, de contrôle et d’intégration de la donnée. Run – Dans le cadre de l’interopérabilité du référentiel Article Core Model avec différents ERP Travailler en interaction avec les équipes métiers et IT pour optimiser l’exploitation et la robustesse de la donnée statique et dynamique. En lien avec les équipes Exploitation et Talend, mettre en place des contrôles pour s’assurer des mises à jour et de la fiabilité des données Environnement Technique : SQL, Excel (niveau avancé), outils MDM, SI internes.

Freelance

Mission freelance
Data Manager

ALLEGIS GROUP
Publiée le
SQL
UML

3 mois
Île-de-France, France

TEKsystems echerche pour le compte de son client : Un(e) Data Manager: Un chef d’orchestre de la donnée dans une organisation. Il ne code pas forcément au quotidien, mais il comprend les enjeux techniques et stratégiques liés à la data. Dans ton cas, il devra :🎯 Missions principales Structurer et piloter la gouvernance des données : garantir la qualité, la sécurité, et la traçabilité des données. Coordonner les équipes data : data ingénieurs, analystes, et architects. Définir les modèles de données : en lien avec les besoins métiers et les outils comme Snowflake. Mettre en place les premiers pipelines de données : pour alimenter les dashboards Tableau et les apps Streamlit. Traduire les besoins métiers en solutions data : notamment dans le cadre du CRM et des outils comme JIRA.

Freelance

Mission freelance
Tech Lead Java

ESENCA
Publiée le
Apache Kafka
CI/CD
Firestore

3 mois
Lille, Hauts-de-France

Contexte de la mission L'équipe conçoit et développe une plateforme interne permettant à toutes les équipes Data de l’entreprise de définir et d’automatiser des règles de qualité des données exécutées sur les datasets présents dans BigQuery. Ces règles peuvent être définies à partir de requêtes SQL personnalisées ou via des templates prédéfinis appelés Data Quality Metrics, qui mesurent diverses dimensions de la qualité des données : 🧭 Consistency, 🧩 Conformity, 🧱 Integrity, 📏 Completeness, 🎯 Accuracy, ⏱ Timeliness, 🔍 Uniqueness. L’outil permet de : - Planifier l’exécution des règles (scheduling) - Être notifié par email, slack en cas de non-respect des quality gates - Visualiser l’historique des métriques sous forme de graphes 👥 Composition de l'équipe - 1 Développeur Front-end senior (Vue.js) - 1 Développeurs Back-end expert - 1 Product Owner (mi-temps) - 1 Product Manager - 1 Tech Lead (tiers temps) 🧩 Objectifs de la mission En tant que Tech lead, vous serez intégré au cœur de l’équipe et participerez activement à : - La conception et l’implémentation de nouvelles fonctionnalités métier autour des règles et métriques de qualité - L’évolution de l’architecture modulaire du back-end (Spring Boot/Java 21) - L’amélioration de la scalabilité et fiabilité de la plateforme (Kafka, Kafka Stream, Firestore, PostgreSQL, GKE) - La revue de code, le mentorat éventuel et l’amélioration continue de la qualité du code - Le maintien et le monitoring de l'application ⚙️ Stack technique Back-end : - Java 21 - Spring Boot 3 - Kafka, Kafka Streams - Firestore, PostgreSQL - GitHub CI/CD (GitHub Actions) - Déploiement sur Google Cloud (App Engine, GKE) Front-end : - Vue.js, (Svelte éventuellement)

Freelance

Mission freelance
Product Owner - Cybersécurité (H/F)

CELAD
Publiée le
Azure Data Factory
Cybersécurité
Microsoft Power BI

12 mois
600-700 €
La Défense, Île-de-France

Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un Product Owner Data / BI (H/F) pour intervenir sur un projet Datalake Cybersécurité chez l'un de nos clients. Voici un aperçu détaillé de vos missions 🎯 : - Rédiger le cahier des charges et définir les plannings de la squad. - Définir et analyser les KPIs fonctionnels et techniques avec les équipes métiers. - Analyser les sources de données nécessaires à la construction des KPIs et optimiser leur calcul. - Réaliser la modélisation des données dans PowerBI et Snowflake . - Définir les règles de gestion des accès, de data gouvernance et d’historisation des données. - Assurer la qualité des performances , le suivi des ordonnancements et le monitoring/alerting des sources et de la qualité des données. - Gérer le backlog dans JIRA et suivre les cérémonies Agile . - Réaliser les tests unitaires sur Snowflake et les tests end-to-end sur PowerBI . - Rédiger et suivre la documentation fonctionnelle et technique . - Assurer la communication, la formation et le support auprès des utilisateurs. - Organiser et animer les comités de pilotage et le suivi du run.

Freelance

Mission freelance
POT8670 - Un Data Scientist sur Paris

Almatek
Publiée le
Machine Learning

6 mois
220-480 €
Paris, France

Almatek recherche pour l'un de ses clients Un Data Scientist sur Paris Fonctions et responsabilités En tant que Data Scientist confirmé(e), vous disposez d’une expérience avérée dans la conception et le développement de solutions centrées Machine Learning / Deep Learning. Vous souhaitez développer et approfondir cette expertise. Vous rejoignez notre pôle d’expertise Data & IA pour accompagner nos clients dans la valorisation de leurs données et le déploiement de solutions d’intelligence artificielle à impact. Vous interviendrez sur des projets variés, de l’idéation à l’industrialisation, en apportant votre expertise technique et votre capacité à créer de la valeur métier. Vous pourrez développer vos compétences clés dans la résolution de problèmes, le passage à l’échelle et l’industrialisation des solutions, le déploiement de solutions dans le cloud, …etc. Vous pourrez également développer vos compétences autour des technologiques et des cas d’usage de l’IA Genarative. Vos missions seront les suivantes : Comprendre les enjeux métiers et les traduire en cas d’usage pertinents Collecter, explorer, nettoyer et structurer des données hétérogènes Concevoir et entraîner des modèles de machine learning et deep learning (classification, NLP, vision, séries temporelles…) Collaborer avec des équipes pluridisciplinaires (consultants, data engineers, architectes…) Participer à la mise en production des modèles (MLOps, monitoring, robustesse) Contribuer au cadrage, à la méthodologie et à l’innovation continue sur les projets IA Mais aussi : Déployer des solutions d’IA générative (LLMs, RAG, embeddings, agentique) dans des cas concrets : copilotes métiers, assistants intelligents, extraction d’information, etc. Qualités requises pour réussir dans ce rôle De formation Bac+5 (école d’Ingénieurs/ Université), vous avec une expérience d’au moins 3 ans en tant que Data Scientist. Vos compétences sont les suivantes : Une première expérience en ESN ou en cabinet de conseil Autonomie, esprit d’équipe, proactivité et curiosité technologique Capacité à vulgariser les concepts techniques et à co-construire des solutions IA avec les métiers Expérience en méthodologies Agile (Scrum, Kanban, SAFe…)

Freelance

Mission freelance
Business Analyst - Data Factory

AGH CONSULTING
Publiée le
User story

1 an
300-430 €
Montrouge, Île-de-France

Dans le cadre d’un projet de transformation numérique d’envergure, vous interviendrez au sein d’une équipe agile pour accompagner la conception et la mise en œuvre d’une solution Data Factory. Missions principales : Recueillir et analyser les besoins fonctionnels auprès des métiers. Animer les ateliers fonctionnels et rédiger les User Stories. Prioriser et gérer le backlog produit en lien avec le Product Owner. Accompagner les développeurs pendant les sprints et les phases de tests. Participer aux tests de bout en bout et à la validation des livrables. Assurer le transfert de connaissances et le support aux équipes métiers. Proposer des améliorations continues et contribuer à la création de valeur autour de la donnée.

Freelance

Mission freelance
Data Engineer Semarchy  xDM / xDI Montpellier

WorldWide People
Publiée le
Semarchy

6 mois
330-350 €
Montpellier, Occitanie

Data Engineer Semarchy xDM / xDI Montpellier Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Concevoir et administrer les modèles MDM sous Semarchy xDM. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDM / xDI, SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition.

2039 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous