Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 170 résultats.
Freelance

Mission freelance
Consultant AMOA SI/DATA

Les Filles et les Garçons de la Tech
Publiée le
AMOA
Data Warehouse
ETL (Extract-transform-load)

6 mois
100-500 €
Île-de-France, France
En tant que Consultant Fonctionnel / AMOA SI et DATA , vous avez pour objectif global d'accompagner les projets transverses de la DSI interne. Vous assistez la maîtrise d'ouvrage (MOA) dans la définition des besoins et l'intégration des solutions au sein du système d'information de l'entreprise. Vos missions principales s'articulent autour des axes suivants : Analyse et recueil des besoins : Réaliser l'analyse de l'existant et les études de faisabilité (cartographie, SWOT, etc.), recueillir les besoins et rédiger les spécifications fonctionnelles (définition des cas d'usages et des règles de gestion). Gouvernance et référentiels Data : Définir, mettre en œuvre et administrer fonctionnellement les référentiels internes (clients, produits, projets, etc.). Documentation : Maintenir et enrichir la documentation fonctionnelle, les dictionnaires de données et de KPIs. Vous rédigerez et validerez également les procédures d'administration et d'échange avec les applications tierces. Coordination et accompagnement : Faire le lien avec les équipes de développement pour traduire les spécifications, présenter les solutions validées et assurer la maintenance du produit. Vous animerez des réunions, des ateliers de travail et mènerez la conduite du changement sur les aspects Data auprès des collaborateurs. Support transverse : Accompagner divers projets pour garantir la qualité des données et apporter un support à la création de métriques (ex: définition et calcul des unités d'œuvre et des temps de production)
Freelance
CDI
CDD

Offre d'emploi
DATA ENGINEER

VADEMI
Publiée le
Apache Spark
Azure
Databricks

1 an
Châtillon, Île-de-France
Nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark et SQL. · Analyse des traitements existants dans le cadre de projets de migration · Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake · Développement de notebooks Databricks pour des traitements avancés de données · Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) · Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) · Réalisation de revues de code dans une logique de qualité et de bonnes pratiques · Conception et exécution de tests unitaires · Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés 3 - Compétences techniques requises · Expérience Data minimum 5 ans · Azure minimum 3 ans · Databricks minimum 5 ans · Spark minimum 5 ans · Python minimum 5 ans · SQL minimum 5 ans · Maitrise de CI/CD, Azure DevOps minimum 3 ans · Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an
Freelance

Mission freelance
Data Steward

Signe +
Publiée le
BI

12 mois
400-420 €
Mérignac, Nouvelle-Aquitaine
Dans le cadre d'un programme de transformation numérique, le Data Steward interviendra sur la refonte d'un SI documentaire dans le secteur de l'énergie ( Socle GED ). Missions principales Structuration et maintien du Modèle d'Organisation des Métadonnées (MOM) Construction des glossaires métiers documentaires et modèles de données Pilotage de la qualité des données et des indicateurs associés Mise en place des lignages de données Appui à la préparation à la migration du socle GED Identification et cadrage de cas d'usages Data / IA documentaires (OCR, NLP, GenAI) Profil recherché Intitulé : Data Steward Expérience : 5 à 7 ans Compétences techniques requises Data Stewardship et gouvernance de la donnée (confirmé) Modélisation de données et maîtrise du SQL Data Management, MOM Outils : JIRA, Confluence, MEGA HOPEX, Microsoft Power BI
Freelance
CDI

Offre d'emploi
Architect Data

The Yellow Office
Publiée le
Architecture
AWS Cloud
Microsoft SQL Server

6 mois
Toulouse, Occitanie
Data Architect | AWS / Snowflake | Toulouse | Freelance Nous recherchons un Data Architect expérimenté pour intervenir sur des sujets d’architecture, de migration et de structuration de plateformes data dans un environnement international. Informations mission • Localisation : Toulouse - 2 jours de TT • Contrat : Freelance • Démarrage : ASAP • Durée : Mission longue • TJM : Selon expérience • Expérience : 10 à 15 ans minimum • Anglais courant requis Votre rôle • Concevoir et faire évoluer l’architecture data globale • Définir les flux d’ingestion, de transformation et de stockage • Structurer les modèles de données et les usages analytiques • Accompagner les projets de migration (legacy vers cloud) • Garantir la performance, la sécurité et la gouvernance des données • Challenger les choix techniques et améliorer l’existant Environnement technique • AWS (S3, Lambda, RDS, Redshift…) • Snowflake • SQL / modélisation de données • Python • Stack BI (Power BI, SQL Server, SSIS, SSAS…) Profil recherché • Forte expérience en architecture data et transformation cloud • Maîtrise des environnements AWS et Snowflake • Capacité à intervenir sur des sujets complexes et structurants • Vision globale data (flux, modélisation, gouvernance) • À l’aise dans des environnements internationaux Merci de me faire parvenir votre CV à
CDI

Offre d'emploi
Data Scientist | Machine Learning

█ █ █ █ █ █ █
Publiée le
Data management
Deep Learning
Git

Réau, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
DATA ANALYST BILINGUE ANGLAIS

BEEZEN
Publiée le
Databricks

6 mois
Île-de-France, France
La connaissance de Neoxam DataHub et/ou de Databricks est un atout pour ce poste. ANGLAIS IMPERATIF Dans le cadre d’un programme stratégique Data, nous recherchons un Data Analyst pour intervenir sur la gestion et l’évolution de référentiels de données au sein d’un environnement data moderne (MDM + Data Platform). Le consultant interviendra au sein d’une équipe technique en charge de la conception, de l’implémentation et de l’exploitation de solutions autour des Master Data et des datasets exposés via API . Responsabilités principales Recueil et formalisation des besoins métiers (équipes Data / Analytics) Analyse des processus existants et des modèles de données Rédaction de user stories , critères d’acceptation et scénarios de test Participation à la conception et à l’évolution de référentiels de données Modélisation et construction de datasets (internes et externes) Contribution à la mise en place de flux de données et leur exposition (API) Réalisation d’analyses ad hoc sur les données Support à la qualité des données (Data Quality) Documentation des solutions et accompagnement au passage en production Contribution aux initiatives de catalogage des données (metadata / data catalog) Participation à des projets de migration de systèmes data
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

35k-42k €
Strasbourg, Grand Est
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Strasbourg - Expérience de 2 ans minimum Vous aimez transformer les données en décisions concrètes ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, intervenant dans le secteur bancaire. Contexte : Vous interviendrez directement sur des projets d’intégration et d’exploitation de données, contribuant à rendre l’information accessible et exploitable pour les équipes métier. Voici un aperçu détaillé de vos missions : - Concevoir et maintenir des processus d’intégration de données (ETL / ELT), idéalement avec Semarchy xDI (anciennement Stambia) - Participer à la modélisation de systèmes décisionnels et à l’organisation des données - Manipuler et optimiser les bases de données avec le SQL - Collaborer avec les équipes BI sur des outils comme SAP/BO Situation géographique : Strasbourg (67)
CDI

Offre d'emploi
Responsable DATA/BI - Martinique

INFOBAM
Publiée le
Data analysis
Data management
Gouvernance

Le Lamentin, Martinique
En tant que Responsable du Domaine DATA & BI, vous êtes le chef d'orchestre de la stratégie déployée au sein des filiales de GBH. Votre mission consiste à conduire des projets, chantiers de conception et de mise en œuvre en apportant votre expertise sur les outils décisionnels. Au quotidien, vous managez les équipes du domaine, en charge du développement, de la maintenance et de l’évolution des systèmes décisionnels pour les sociétés de GBH. Vos missions principales seront les suivantes : - Vous managez, animez et assurez le suivi opérationnel (coaching, formation, accompagnement métier, définition des objectifs) d’une équipe de 10 consultants (une équipe en cours de croissance) - Vous gérez et pilotez les relations avec les partenaires tiers de la DSI INFOBAM (ESN, consultants indépendants) ; - Vous êtes force de propositions pour l’implémentation d’une roadmap DATA/BI, en lien avec les besoins exprimés par les métiers ; - Vous animez périodiquement des réunions avec les métiers dans le but d’analyser et prioriser les demandes d’évolutions ; - Gestionnaire du « Build », vous assurez la bonne exécution des projets dans le respect des délais, du contenu, de la qualité et des objectifs budgétaires initialement convenus ; - Gestionnaire du « Run » de la plate-forme DATA/BI et de son maintien en conditions opérationnelles, incluant également la maintenance évolutive/corrective ; - Vous assurez la gouvernance des données, notamment au niveau de la définition des indicateurs opérationnels, garant de la maintenance, de l’évolution et de la pertinence des rapports ou des modèles utilisés ; - Vous pilotez l’ensemble de l’activité au travers de plan d’actions (tableaux de bord d’activité, indicateurs de performance) ; - Vous assurez une veille technologique afin de détecter les nouvelles possibilités techniques et fonctionnelles offertes par le marché.
Freelance

Mission freelance
Quality Data/Lead Data Referentiel

Cherry Pick
Publiée le
Finance
IA
Numpy

12 mois
Paris, France
PRÉSENTATION DE LA MISSION Dans le cadre d'un programme de transformation de la qualité des données de marché, vous rejoignez l'équipe DIR (Direction du Référentiel) . Votre rôle est de concevoir, déployer et industrialiser un cadre de contrôle rigoureux pour les actifs financiers (Futures, Yields, FX, Index, Bonds) afin de garantir la fiabilité des modèles de recherche et des décisions de trading. Type de contrat : Freelance Durée : 6 mois Localisation : Paris Environnement technique : Python (Data Stack), SQL, Bloomberg/Reuters API, LLM/IA. 2. MISSIONS ET RESPONSABILITÉS Axe 1 : Audit et Diagnostic (Phase d'Évaluation) Réaliser un audit complet des dimensions de qualité par classe d'actifs. Recenser l'existant (scripts épars, contrôles manuels) et identifier les zones de risque (gaps de couverture). Prioriser le backlog des anomalies historiques en collaboration avec les équipes Recherche et Prédiction. Axe 2 : Industrialisation de la Qualité (Mise en œuvre) Développer une bibliothèque unifiée et modulaire de contrôles (en Python) intégrable aux pipelines de données. Assurer la remédiation du stock historique : investigation des causes racines, correction des données et résolution des litiges avec les fournisseurs (Bloomberg, etc.). Mettre en place des mécanismes de prévention pour bloquer les anomalies dès l'ingestion. Axe 3 : Monitoring et Innovation Concevoir des dashboards de pilotage (KPI) pour monitorer la santé des données en temps réel. Développer un PoC basé sur les LLM pour automatiser la génération de nouveaux contrôles et faciliter l'analyse des causes racines (Root Cause Analysis). Rédiger le Playbook opérationnel (procédures de gestion d'incidents et workflows d'alerte).
CDI

Offre d'emploi
Product Owner Pricing Data & Analytics F/H

█ █ █ █ █ █ █
Publiée le
JIRA
Scrum

Auvers-sur-Oise, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Engineer BI & Visualisation H/F

█ █ █ █ █ █ █
Publiée le
Python

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS

PROPULSE IT
Publiée le
Azure
BI
DevOps

24 mois
325-650 €
France
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
Freelance

Mission freelance
249593/Product Owner DATA SUR DES DONNEES RH - Expertise dans la création de Datalake RH

WorldWide People
Publiée le
Data Lake

9 mois
Saint-Denis, Île-de-France
PO DATA SUR DES DONNEES RH - Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP • Product Owner Data dans le cadre du projet DataSmart RH Les données RH sont actuellement exploitées manuellement via Excel, ce qui engendre un risque d'incohérences et une sécurité limitée. Le besoin est de disposer d'une base unique, automatisée, sécurisée et actualisée quotidiennement. Nature de la prestation à effectuer : Il/Elle adressera les actions suivantes : - Designer les alimentations des données (fréquence, groupes de données, mode delta et/ou full, stockage et data préparation) - Réaliser les spécifications détaillées des besoins d’extraction vis-à-vis de ADP et SuccessFactors afin de répondre aux besoins métier et de respecter ceux de l’environnement Data de Generali (pour la création du Data Domain) - Prendre en compte les autres systèmes providers de données (bases mortes et autre système opérationnel de formations, WeLearn/Cornerstone) - Être force de proposition pour la gestion des habilitations sur les données - Participer à la recette des extractions et des imports dans le Data Domain Il/Elle sera sous la responsabilité du manager de l'équipe Pilotage SIRH et travaillera avec l’ensemble des parties-prenantes : - L’équipe métier : Pilotage RH - L’équipe AMOA Pilotage SIRH - L’équipe IT RH - L’équipe IT DATA - Les éditeurs 2. Management de projets product owner Sénior PRO_OWN-3 Référent de la vision métier au sein des équipes agiles : - Collabore avec les métiers pour élaborer la vision du produit - Partage cette vision avec les équipes de développement agile - Mène une réflexion stratégique préparatoire des versions à venir Priorisation par la valeur du contenu métier : - Identifie les fonctionnalités et exigences attendues - Priorise toutes les users stories au sein du Product Backlog - Maintien le product backlog et cherche en permanence à maximiser la valeur métier pour les utilisateurs Transmission aux équipes agiles pour assurer la compréhension du besoin métier : - Découpe chaque fonctionnalité en user story pouvant être implantée en une seule itération - Définit les critères d'acceptation indispensables à sa bonne compréhension par les équipes agiles - Intègre et suit la prise en compte des exigences non fonctionnelles (ENF : accessibilité, sécurité IT, RGPD, RSE...) dès l'étape de conception - Contribue aux réunions agiles avec les équipes de développement et le Scrum Master Recette des éléments métiers produits par l'équipe agile : - Réalise ou organise le déroulement des tests utilisateurs - Récolte les feedbacks des utilisateurs pour les équipes de développement Objectifs et livrables Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP • Compétences demandées Compétences Niveau de compétence donnée rh : GA / PAIE / GT / FORMATION Confirmé standard adp Confirmé Power BI Confirmé datalake rh Confirmé
Freelance

Mission freelance
Développeur DataStage

ARGANA CONSULTING CORP LLP
Publiée le
Big Data
ETL (Extract-transform-load)
IBM DataStage

12 mois
450 €
Joinville-le-Pont, Île-de-France
🔎 Contexte de mission Dans le cadre des projets de la Direction Informatique Groupe (périmètre Sécurité Financière), vous interviendrez sur la mise en œuvre des indicateurs AML au sein de nouveaux outils en cours de développement. La mission s’inscrit dans un environnement bancaire exigeant, avec des enjeux liés à la conformité et au traitement de données financières. 🎯 Missions principales et rôle En tant que Concepteur / Développeur DataStage , vous serez en charge de : Développer les contrats d’interface entre le SI, le DRE et les Datamarts Concevoir et faire évoluer les flux de données liés aux projets AML (LAB, TRACE, etc.) Créer et maintenir les composants d’intégration de données (CI) Développer les packages DataStage associés Participer aux phases de tests et de recette Accompagner les mises en production (MEP) 🚀 Objectifs Assurer la bonne intégration des flux de données dans l’écosystème SI Garantir la qualité, la fiabilité et la conformité des données AML Contribuer à l’évolution des outils de lutte contre le blanchiment 🛠️ Compétences requises Expérience de 3 à 5 ans en développement, idéalement en environnement bancaire ou marchés financiers Maîtrise des environnements Big Data et expertise en ETL DataStage Bonne connaissance de JIRA (obligatoire) Connaissance du périmètre fonctionnel comptabilité multinormes Expérience en méthodologie Agile Anglais professionnel requis
CDI
Freelance

Offre d'emploi
Expert N3 Mobilité & Innovation (Android/iOS) - LILLE (pas de full télétravail)

HELPLINE
Publiée le
Android
Google Workspace
Support informatique

3 ans
40k-45k €
400-490 €
Lille, Hauts-de-France
Vous souhaitez piloter la mobilité d'un leader du retail à l'échelle internationale ? Nous recherchons notre futur(e) Expert(e) N3 Mobilité pour transformer notre parc de terminaux et garantir une expérience utilisateur sans couture sur le terrain (magasins, logistique, sièges). Le Challenge Au cœur d'une équipe Agile, vous équilibrez votre activité entre l'accélération du Build (innovation) et la sécurisation du Run (stabilité). Votre objectif : professionnaliser le produit "Mobilité" et anticiper les besoins futurs. Vos Missions Build & Innovation : Administrer et challenger le tenant Workspace ONE (WS1) , gérer l'écosystème natif ( ABM, Android Enterprise ) et configurer les flottes durcies ( Zebra StageNow ). Support Expertise & Transmission : Assurer le support N3 complexe, rédiger la documentation sur Confluence (KB) et faire monter en compétence les niveaux 1 et 2. Pilotage Agile : Gestion autonome du backlog sur Jira (User Stories, capacité à faire). Votre Profil Expertise UEM : Maîtrise confirmée de Workspace ONE et des écosystèmes mobiles. Expérience Terrain : Gestion de flottes de grande envergure et terminaux durcis (Zebra, Honeywell...). Rigueur & Pédagogie : La documentation est pour vous un prérequis strict. Mindset "Produit" : Vous anticipez et proposez des solutions innovantes.
Freelance
CDI

Offre d'emploi
Data scientist - (H/F)

CHARLI GROUP
Publiée le
AWS Cloud
Pandas
Python

2 ans
55k-62k €
400-550 €
Courbevoie, Île-de-France
Le Projet Rejoignez une équipe à la pointe de l'innovation pour concevoir, optimiser et industrialiser nos solutions d’Intelligence Artificielle Générative. Au cœur de nos enjeux, vous piloterez l'évolution de nos architectures RAG et de nos systèmes de recommandation pour transformer l'expérience utilisateur. Vous évoluez dans un environnement stimulant où l’expérimentation rencontre les exigences de la mise en production à grande échelle. Vos Missions : En tant qu'Ingénieur IA, votre quotidien s'articule autour de quatre piliers majeurs : 1. Architecture & Développement RAG Conception et optimisation de pipelines hybrides (BM25 + Recherche Vectorielle + Reranking). Expérimentations avancées sur les stratégies HyDE (Baseline, Sélectif, Hybride). Intégration et fine-tuning de LLM via AWS Bedrock (Claude Sonnet / Haiku). 2. Performance & Reranking Déploiement et tests de modèles de reranking (type Qwen) pour affiner la pertinence. Arbitrage constant sur le triptyque : Qualité / Latence / Coût . 3. Data Engineering & Ingestion Gestion du cycle de vie de la donnée : Chunking, génération d’embeddings (Titan) et indexation. Connexion et exploitation des sources de données ( Snowflake, S3 ). 4. Évaluation & Industrialisation Mise en place de frameworks d'évaluation ( RAGAS, DeepEval ) et suivi des métriques clés (nDCG@K, Recall, MRR). Passage à l'échelle des pipelines : robustesse, monitoring et gestion des "edge cases". Votre Stack Technique : Cloud / IA : AWS (Bedrock, Lambda, SageMaker, S3). LLM : Claude (Anthropic). Vector DB & Search : OpenSearch, FAISS. Data : Snowflake, Pandas, Python. Évaluation : RAGAS, DeepEval. Prêt(e) à relever le défi GenAI avec nous ? Postulez dès maintenant !
3170 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous