Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 796 résultats.
CDI

Offre d'emploi
Data Engineer

CAT-AMANIA
Publiée le
Ansible
Apache Airflow
Apache Kafka

Île-de-France, France
ntégration au sein de l'équipe Data event Management qui gère les trois offres de services suivantes : - Offre Infra. Kafka sur ITCloud OnPremise - Offre Infra. Kafka sur IBMCloud/dMZR. Activités principales - Construction/Déploiement/Support/MCO des offres autour de la technologie de messaging kafka Méthodologie de Travail - ITIL - Agile/Scrum à l'échelle - Product Based Projets principaux en cours - Transition vers un Nouvel Orchestrateur sur l'Offre Infra Kafka IBMCloud/dMZR basé sur Python et Airflow, Terraform - Extension de l'offre Kafka sur IBMCloud/dMZR avec l'intégration du produit Lenses - Migration du monitoring de l'infrastructure OnPremise de Splunk vers une solution Dynatrace combinée avec ELK. Technologies Utilisées - Outils administratifs: ServiceNow, Jira, Confluence - Infrastructure as Code: Ansible, Terraform - Langages: Bash, java (spring/jhipster), python - Repository: Artifactory - Database: SQL Server, PostgreSQL - Contenairsation: Docker/Kubernetes - Provider Cloud: ITCloud, IBMCloud - Orchestration: Airflow, Autosys, BPM - Versionning: Git - Messaging: kafka - CI/CD: GitLab CI - Operating system: Redhat - Monitoring: ELK, Dynatrace, LogDNA, Sysdig - Sécurité: HashiCorp Vault, Cyberarc
Freelance

Mission freelance
Consultant senior Movex / M3 Finance spécialisé en data migration (H/F)

PREREQUIS
Publiée le
ERP

6 mois
400-840 €
Île-de-France, France
Nous recherchons pour l’un de nos clients un Consultant senior Movex / M3 spécialisé en data migration (H/F). Le poste est à pourvoir en freelance ou en CDI. Missions : Conduire la migration et la transformation de données sur Movex / M3. Analyser les données legacy. Définir les règles de mapping. Assurer la qualité et la cohérence des données migrées. Piloter les cycles de migration (mock, cutover). Mettre en œuvre les opérations d’extraction, de nettoyage et de chargement de données. Travailler en coordination avec les équipes métiers et IT.
Freelance

Mission freelance
SEO Data Enginer senior - Discovery/IA & MVP - Lille avec TT

Expert Line Conseil
Publiée le
J2EE / Java EE
Large Language Model (LLM)
RAG

12 mois
650-730 €
Lille, Hauts-de-France
Pour un acteur du secteur du Retail basé dans le Nord de la France : Dans un contexte d’accélération des technologies autour de l’AI et du GenAI, de transformation digitale et d’organisation d’entreprise plateforme, nous déployons des solutions et produits en lien direct avec l’ensemble de nos BUs et des communautés Digitales. En tant que Data Engineer avec un rôle de Discovery Lead, tu es un profil moteur sur l'ensemble du cycle : de l'analyse des nouvelles tendances à la mise en production de MVP (Minimum Viable Product). 1. Pilotage du Discovery : ○ Tu prends en charge des sujets complexes et émergents liés à la donnée (SEO, expérience client, APIs). ○ Tu es capable d'initier le développement sans nécessiter un cahier des charges exhaustif et d'agir sur la base d'objectifs métier. ○ Tu as déjà eu des approches de type Discovery, où tu as participé et organisé l'analyse et à la spécification de solutions naissantes. 2. Veille, Analyse & Architecture : ○ Tu réalises une veille technique et forcément en lien avec le métier dans les domaines du Commerce en ligne, du SEO/GEO, et des évolutions du Generative AI pour anticiper les nouveaux besoins. ○ En lien direct avec nos Tech leads et nos software architects, tu utilises ton excellent niveau d'analyse pour définir et documenter le plan technique et l'architecture à mettre en place pour chaque explorations (y compris les pipelines de données, où les différentes approches de prompt engineering). 3. Développement de MVP (Minimum Viable Product) : ○ Ta mission est de développer rapidement des prototypes fonctionnels pour tester et valider la valeur business. ○ Cela implique de réaliser aussi bien le développement Back-end (API Java) que le développement Front-end rapide pour matérialiser le produit ou l'outil d'expérimentation. ○ Tu as la capacité de limiter le périmètre fonctionnel du MVP à l'essentiel (ne pas traiter 100% des cas) afin de maximiser la vitesse de mise en marché / expérimentation. 4. Mesure & Communication : ○ Tu définis les KPIs (Key Performance Indicators) à atteindre pour chaque MVP. ○ Tu assures aussi la spécification et la communication claire et concise des résultats des expérimentations auprès des équipes métier et techniques Périmètre des Sujets : ● Phase 1 - SEO Technique & Gen AI : Construction de solutions pour enrichir, formater et rendre nos données "AI-friendly" afin d'optimiser son indexation et sa compréhension par les moteurs de recherche et les Generative Engines. ● Phase 2 - Expérience Client & Plateforme : Ton périmètre s'étendra à des sujets stratégiques : Site Web (Navigation, Personnalisation), Espace Client, Pages Magasins, et développement d'APIs Backend transverses (Web/Mobile/App).
Freelance

Mission freelance
Data Analyst IA Solutions (PowerBI, SQL, Python)

Nicholson SAS
Publiée le
CI/CD
Data analysis
DBT

24 mois
300 €
Lille, Hauts-de-France
Missions : Nous recherchons une personne avec une expérience confirmée (au moins 3 à 5 ans sur des problématiques Data), passionnée par la construction de solutions analytiques robustes et percutantes. Modélisation et Bases de Données : Vous maîtrisez parfaitement le langage SQL pour concevoir et optimiser des tables de données, notamment dans BigQuery et PostgreSQL. Vous avez également une connaissance des bases de données NoSQL comme MongoDB. Une expérience avec dbt pour la transformation et la modélisation est fortement appréciée. Visualisation de Données (Dataviz) : Vous avez une expertise solide sur des outils de BI comme Power BI ou Looker pour transformer des données brutes en dashboards interactifs et clairs, aidant ainsi à la prise de décision. Ingénierie et Analyse : Vous utilisez Python pour l'analyse, la manipulation de données complexes ou l'automatisation de tâches. Écosystème Cloud & DevOps : Vous êtes familier avec Google Cloud Platform (GCP). Vous avez une forte sensibilité aux pratiques DevOps et une expérience avec les outils d'intégration et de déploiement continus (CI/CD, comme Git, GitLab CI, GitHub Actions) pour garantir le versionnement, la qualité et l'automatisation des déploiements. Qualité de la Donnée : Vous êtes sensible à la qualité et à la gouvernance des données, et vous mettez en place des pratiques pour assurer la fiabilité des informations.
Freelance
CDI

Offre d'emploi
Data Analyst (H/F)

Ela Technology
Publiée le
SQL

1 an
Paris, France
Votre mission Rejoignez une équipe spécialisée dans la lutte contre la fraude au sein d'un acteur majeur des paiements électroniques. Vous contribuerez activement à la surveillance du réseau de paiement, en détectant et analysant les activités suspectes pour protéger des millions de transactions quotidiennes. 💼 Vos responsabilités clés • Surveillance opérationnelle : Analysez les remontées de reporting et détectez les patterns frauduleux sur le réseau (commerçants, cartes) pour remonter des alertes stratégiques • Construction de datamarts : Créez des agrégats fiabilisés à partir de données unitaires pour alimenter les analyses et dashboards de l'équipe • Analyses ad hoc : Explorez et comparez les différentes sources de données pour évaluer leur qualité, leurs atouts et leurs limites • Industrialisation : Collaborez avec les équipes Data Engineering pour automatiser vos traitements et les rendre scalables • Evolution continue : Participez activement au développement des dashboards avec les équipes BI pour améliorer la détection de fraude
Freelance
CDI

Offre d'emploi
Data Scientist NLP (H/F)

STORM GROUP
Publiée le
AI
Apache Airflow
BigQuery

3 ans
50k-58k €
450-500 €
Île-de-France, France
• contribution aux projets décisionnels - Big data, • participation et animation de groupes de travail avec les utilisateurs et les informatiques, • collecte des besoins auprès des métiers, • modélisation et développement des reporting : spécification des indicateurs décisionnels (statistique, qualité, facturation) • exploration de données • rédaction des livrables : spécifications fonctionnelles et techniques, cahiers de recette • participation aux recettes • formation et accompagnement des utilisateurs
Freelance

Mission freelance
consultant confirmé Google Workspace, Data & IA - 1303

ISUPPLIER
Publiée le

10 mois
350-435 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre de sa transformation digitale, notre client recherche un Expert Senior capable d'assurer l'interface entre l'expertise technique et les enjeux métiers sur l'ensemble de l'écosystème Google Workspace et ses extensions Data & IA. Le profil recherché est un consultant hybride à haute valeur ajoutée, capable d'administrer l'environnement collaboratif, d'analyser la donnée d'usage (BigQuery/Looker), de développer des solutions d'automatisation (AppSheet) et de porter la vision fonctionnelle (RSE, Adoption, IA) auprès des directions métiers. Objectifs et livrables Profil et Compétences Clés Volet Data & Analytics (Expertise Looker & BigQuery) Business Intelligence (Looker) : Conception et maintenance de modèles LookML complexes. Élaboration de dashboards de pilotage stratégique pour mesurer l'adoption des outils et la performance des processus métiers. Data Analysis (BigQuery) : Exploitation avancée des données (logs d'audit GWS, données métiers) via requêtage SQL optimisé. Structuration des tables et gestion des coûts de stockage/calcul. Pilotage RSE & Usages : Définition et mise en place d'indicateurs de suivi sur l'infobésité et l'hyperconnexion, en support de la politique de Qualité de Vie au Travail (QVT) et de Sobriété Numérique. Volet IA Générative (Gemini) & Innovation Centre d'Expertise IA : Contribution majeure à la structuration du Centre d'Expertise. Rôle de référent technique et fonctionnel sur la solution Gemini. Acculturation & Animation : Pilotage de la communauté d'ambassadeurs IA. Organisation de webinars, rédaction de guides de bonnes pratiques et identification de cas d'usage à forte valeur ajoutée. Intégration Métier : Déploiement opérationnel de solutions IA (assistance rédactionnelle, synthèse documentaire, assistants virtuels) adaptées aux besoins spécifiques des métiers. Volet Google Workspace : Technique & Fonctionnel Expertise Admin & Sécurité : Administration avancée de la console Google Workspace. Audit et optimisation des configurations de sécurité (DLP, Context-Aware Access) en collaboration avec les équipes Cyber. Automatisation des Processus : Développement d'applications métiers via AppSheet (Low-code) et Google Apps Script pour la digitalisation des tâches manuelles et le remplacement de fichiers Excel complexes. Transition Office vers Google : Accompagnement technique et méthodologique pour la migration des utilisateurs et de leurs outils (Excel/VBA) vers l'écosystème Google (Sheets/Apps Script/BigQuery). Posture AMOA/PO : Assistance au Product Owner dans la définition de la roadmap produit, la rédaction de User Stories et la conduite du changement. Profil et Compétences Clés Ce poste requiert une double compétence confirmée : une maîtrise technique avancée de l'écosystème Google et une vision fonctionnelle stratégique orientée métier. Compétences Techniques (Hard Skills) Google Workspace : Expertise éprouvée en Administration, Sécurité et Usages avancés. Data Stack : Maîtrise experte de Looker (développement LookML indispensable) et BigQuery (SQL avancé). Développement : Solides compétences en Google Apps Script et maîtrise de la plateforme AppSheet. IA Générative : Expertise technique sur Gemini (Prompt Engineering, configuration et intégration). Compétences Fonctionnelles & Soft Skills Analyse Métier : Capacité à traduire des besoins métiers complexes en solutions techniques performantes et pérennes. Pédagogie & Communication : Aptitude à vulgariser les concepts IA/Data auprès d'interlocuteurs non-techniques et à fédérer des communautés. Sensibilité RSE : Forte implication sur les sujets de responsabilité numérique (sobriété, droit à la déconnexion). Leadership Technique : Force de proposition pour challenger l'existant et impulser l'innovation. Livrables attendus Pilotage et Reporting : Dashboards Looker (Adoption, RSE, Performance o pérationnelle). Solutions Applicatives : Applications AppSheet et scripts d'automatisation déployés, documentés et maintenables. Dispositif IA : Supports de formation Gemini, référentiel de Prompts, roadmap d'animation du réseau ambassadeurs. Transformation Numérique : Stratégie et outils de migration des macros Excel critiques vers GWS. Documentation : Spécifications fonctionnelles, guides utilisateurs, procédures d'administration et d'exploitation.
CDI

Offre d'emploi
BA DATA sur profil (CDI uniquement) - Préavis 1-3 mois

OBJECTWARE
Publiée le
ETL (Extract-transform-load)
Oracle
PL/SQL

Nanterre, Île-de-France
GREAT PLACE TO WORK depuis 2019 et BEST WORKPLACE FRANCE 2023-2024 & 2025 Depuis 24 ans, le Groupe Objectware développe ses expertises et practices pour accompagner ses clients dans l’optimisation de leurs performances et leurs enjeux de transformation. Notre expertise en Management de projets, Développement applicatif, Infrastructure, Opération et Sécurité nous permet d’avoir une couverture totale sur le cycle de vie des projets de nos clients. BA DATA - Oracle, SQL, PL-SQL (très présent) -Clarity (pas obligatoire) Controle M / ETL / UNIX .. Rémunération selon le profil, début de mission en JUIN donc préavis de 1 à 3 mois accepté. CDI Uniquement Contexte de la mission : La Squad Core Data (équipe opérationnelle ~20 personnes) de la Tribe Data France est composée de 5 applications de type "batch" : Les Bases Commerciales (BCA-BCB-BCC) Interfaces Délégataires Préparation éditique Cette Squad dont l'organisation est full agile (sprints, daily, jira …) et avec l'aide de notre TMA a vocation à : Maintenir et sécuriser au quotidien ces applications Mettre en œuvre sur ce périmètre les évolutions (réglementaire, métier, technique …) ~20-30 projets/an Domaine / Environnement technique : Culture "bach" : perf/volumétrie, gestion de différent type de fichiers (séparateurs, formats fixes, xml …), rejets, manipulation des données, règles/calculs sur les données … Détails de la prestation : Contribution au projet « IRF » ( I mprimé R èglementaire et F iscal) : Le projet IRF à vocation envoyer chaque année aux clients concernés les courriers IA, IFU et IFI. Sur notre application « Préparation Editique » : qui est le pôle d’échange centralisé d’agrégation et transformation des données avant envoi à l’application d’édition des courriers (Optima) Sur notre périmètre (Préparation éditique) : - Gestion de projet : planification (Clarity), estimation des charges, gestion du budget, reporting, suivi des travaux, coordination, participation au COPROJ, suivi des alertes/risques/problèmes - Participation active (avec le métier) à la compréhension et transposition des besoins et règles métiers en solution IT - Recueil des besoins, définition de la solution, contribution aux aspects architecture et sécurité, rédaction des spécifications fonctionnelle / exigences, expertise applicative - Commande et pilotage des travaux de développement (Réception et validation des développements via une phase de vérification applicative), - Participation à la stratégie de tests, - Participation à la phase de recette en relation avec le centre de test Cardif, - Préparation, organisation du déploiement et mise en production, - Suivi et coaching des ressources techniques (forfaits, équipes transverses ...) Compétences techniques : - Oracle, SQL, PL-SQL (très présent) - UNIX - Ordonnanceur Control-M - CFT - Informatica Powercenter (très limité sur l’IRF -> donc optionnel mais toujours apprécié si jamais …) - GIT (Toolchain) Culture "bach" : perf/volumétrie, gestion de différent type de fichiers (séparateurs, formats fixes, xml …), rejets, manipulation des données, règles/calculs sur les données … Une forte appétence technique est nécessaire afin de pouvoir discuter, être en support et challenger nos différents acteurs : architectes, développeurs, experts, centre de test, exploitant … Ce qui fera la différence : Les Soft Skills de la personne 👍 Compétences Outils : Clarity serait apprécié Compétences méthodologiques : Agile (at Scale)
Freelance

Mission freelance
Expert Data Transfer / Intégration SI

Codezys
Publiée le
API
Control-M
Middleware

12 mois
450-500 €
Paris, France
Dans le cadre d’un projet relatif à l’intégration d’une société d’investissement au sein d’une société de gestion d’actifs, nous recherchons un expert en transferts de données et interconnexions entre systèmes d’information. L’objectif est d’accompagner la mise en place des flux de données et des connecteurs nécessaires entre les applications existantes de la premier organisme et celles du second, afin de garantir une transition efficace, sécurisée et maîtrisée. Description de la mission L’expert interviendra sur des sujets liés à l’intégration applicative et à la circulation des données entre SI, en étroite collaboration avec les équipes techniques déjà en place (middleware, ordonnancement, connectivité, applicatifs, etc.). Principales responsabilités Analyser les besoins de transfert de données entre les systèmes d’information des deux entités. Participer à la conception et à la mise en œuvre des connexions et flux nécessaires. Travailler avec les experts internes sur les volets : Middleware Scheduling / Ordonnancement Connectivité réseau Applications et interfaces Définir les modalités techniques de transfert : protocoles, formats, fréquences, sécurisation, monitoring Contribuer à la fiabilisation des échanges (tests, validation, résolution d’incidents). Documenter les solutions mises en place (schémas de flux, procédures, référentiels techniques).
Freelance

Mission freelance
TechLead Data Engineer

MLMCONSEIL
Publiée le
Apache Kafka
Hadoop
PySpark

6 mois
150-490 €
Lille, Hauts-de-France
Pour le besoin de mon client , je suis à la recherche d'un TechLead Data Engineer avec compétence sur la stack technique Spark/PySpark, Kafka, Hadoop, Python Langues : français, l'anglais est un plus Date de démarrage : ASAP .... . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... .
Freelance

Mission freelance
Data Engineer / Développeur PL/SQL (Exprert)

Keypeople Consulting
Publiée le
Oracle
PL/SQL

6 mois
400-450 €
Île-de-France, France
Nous cherchons : Data Engineer / Développeur PL/SQL Projet stratégique Data & IA Dans le cadre de la mise en place d’un DataHub IA pour une plateforme de consolidation de données à l’échelle Groupe, nous recherchons un Ingénieur Data disposant d’une solide expertise Oracle & PL/SQL . Vous interviendrez dans un environnement Data à forts volumes , avec des enjeux majeurs de performance , de fiabilité des calculs et d’ alimentation d’un moteur IA . Contexte La plateforme permet de collecter, consolider et traiter des données critiques servant au calcul d’indicateurs de pilotage stratégiques. Le DataHub joue un rôle central dans la préparation, la transformation et l’optimisation de ces données. Vos missions 🔹 Data & Performance Mise en place de la collecte de données Création et modélisation des modèles de données Optimisation des traitements et des performances Réalisation de tests de performance Analyse et résolution des problèmes de performance Oracle Revue et optimisation des calculs statistiques 🔹 Développement Développement de procédures PL/SQL (collecte, calcul, agrégation) Mise en place des processus de préparation de données en respectant les cas d’usage 🔹 Conception Conception de solutions basées sur les outils standards disponibles Rédaction des cas d’usage et des exigences fonctionnelles Rédaction des dossiers d’analyse et de conception Modélisation des différents modèles de données identifiés 🛠️ Compétences requises Excellente maîtrise Oracle Très bonne expertise PL/SQL Expérience en optimisation de performance base de données Conception et modélisation de données Contexte forts volumes de données Connaissances Exadata / ExaCC fortement appréciées Abglais courant. 💡Profil recherché : rigoureux, orienté performance, à l’aise dans des environnements
Freelance
CDI

Offre d'emploi
Ingénieur Support et Exploitation Plateformes Data

VISIAN
Publiée le
Apache Spark
Kubernetes

1 an
40k-45k €
400-650 €
Paris, France
Descriptif du poste Notre équipe est responsable du maintien en condition opérationnelle des plateformes suivantes qui tournent sur IKS (Kubernetes IBM) et bientôt sur OpenShift : Apache Spark Apache Airflow/Astronomer Starburst (trino) Dans le cadre du renforcement de notre capacité de support sur la nouvelle offre "DATAHUB V2", nous recherchons des prestataires spécialisés dans l'exploitation et le support de ces plateformes. Missions La prestation visera à : Assurer le maintien en condition opérationnelle en production des plateformes (Airflow, Spark, Starburst) Intervenir dans la gestion des incidents, l'analyse des root causes et la résolution Participer à l'optimisation des traitements Spark sur Kubernetes (tuning, configuration, dimensionnement), à l'optimisation de l'orchestration Airflow, à la gestion des catalogues Starburst Accompagner les équipes métiers dans l'utilisation efficace et sécurisée des plateformes Contribuer à la documentation et à l'amélioration continue de l'écosystème d'exploitation
Freelance

Mission freelance
Data Engineer Senior – Azure Databricks (Python) (H/F)

HOXTON PARTNERS
Publiée le
Azure
Databricks
Python

6 mois
Paris, France
Dans le cadre d’un projet Data sous environnement Microsoft Azure, nous recherchons un Data Engineer disposant d’une expérience significative sur Azure Databricks (Python). Le consultant interviendra sur la conception, le développement et l’optimisation de traitements data au sein d’une plateforme moderne. Il participera à la mise en place de pipelines de transformation et à l’intégration des flux dans l’écosystème Azure. Les principales responsabilités incluent: Développement de notebooks Azure Databricks en Python / PySpark Conception et optimisation de pipelines de transformation Intégration avec Azure Data Factory Contribution aux sujets de gouvernance via Unity Catalog Participation aux déploiements et bonnes pratiques d’industrialisation (Terraform)
CDI

Offre d'emploi
Lead Data Scientist / ML & AI Engineer full remote F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Ocaml
Python
Pytorch

Bordeaux, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Lead Data Scientist / ML & AI Engineer full remote F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Ocaml
Python
Pytorch

Strasbourg, Grand Est

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Développeur C# / .NET/angular F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
.NET CORE
ADO.NET
Angular

69009, Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

1796 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous