Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 370 résultats.
Freelance

Mission freelance
Data Analyst Sénior

CAT-AMANIA
Publiée le
Data analysis

3 ans
Lyon, Auvergne-Rhône-Alpes
🎯 Taches principales - activités BI - Collaborer étroitement avec les Business Analystes afin d’identifier les besoins Data du métier grâce à des ateliers d’affinage - Collecter et exploiter les données pour les restituer sous forme d’indicateurs ou de Tableaux de bord, et ainsi contribuer et conduire les analyses Data mises en lien avec les problématiques métiers - Présenter les résultats aux équipes métiers - Véhiculer auprès des métiers le cadre de gouvernance Data (Data Management, Data Privacy…) de l’entreprise, en portant les messages et expertises autour du Digital - Contribuer à l’évolution des pratiques du Chapitre dans une logique d’amélioration continue 🎯 Une connaissance fonctionnelle de l’analyse data dans le domaine bancaire pour apporter un regard critique et répondre aux problématiques d’analyse de donnée des métiers 🎯 Evolutions des activités en temps 2 – activités data digital (tracking et data analyse associée) : - Identifier, avec les Squads métiers, les besoins de tracking dans des ateliers d’affinage - Réaliser les spécifications et recettes du tracking - Collecter et extraire les données nécessaires à l’analyse - Construire des tableaux de bord - Restituer le plan de marquage déployé dans un livrable au format prédéfini pour les caisses régionales. - Présenter le rendu aux squads métiers En tant qu’intervenant externe sur le poste de data analyst, vous interviendrez spécifiquement sur : • Fabrication de Tableaux de Bord via Microstrategy (sur des activités BI) • Calcul d’indicateurs via script SQL sur environnement Teradata (sur des activités BI) et intégration dans des pipelines de restitution normées ⚠️ Soft skills indispensables du fait du positionnement Chapitre : Autonome, Adaptable, Bonne communication / Pédagogue, Sait challenger les besoins / Prise de Lead Il sera également demandé à l’intervenant/e externe d'intervenir sur les activités Digital en lien avec la Données pour garantir la réussite du Pilotage des Parcours web : • Mise en œuvre du Tracking sur les parcours utilisateurs et Fabrication de Tableaux de Bord pour restituer les données aux métier (sur des activités Parcours Digitaux) - Logiciel et solutions analytiques : Tag Commander, Piano Analytics, Cosmo Survey • Conduite des analyses marketing sur la base du tracking déployé et force de proposition sur les possibles optimisations lors de ces analyses.
Freelance

Mission freelance
Data Engineer - IA (Bordeaux)

Cherry Pick
Publiée le
Agent IA
Apache Kafka
DBT

12 mois
390-400 €
Bordeaux, Nouvelle-Aquitaine
Intégré à la DSI au sein de l’équipe Data Tech Knowledge de la direction IT DATA de notre client à Bordeaux , le Data Engineer participera à des projets autour de l’IA et de la data. La mission consiste à : Effectuer des alimentations de données . Collaborer avec un Data Analyst sur des projets IA/Data. Développer et travailler autour d’ agents IA pour le requetage SQL en langage naturel . Mettre à disposition des outils d’aide au développement et au monitoring . Assurer une veille technologique sur les architectures data et outils associés. Stack Technique : Langages : Python, SQL Bases de données : Snowflake, SQL Server, PostgreSQL DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend Data Visualisation : PowerBI
Freelance

Mission freelance
Data Analyst Spécialiste sur Infor M3

DEVIK CONSULTING
Publiée le
SQL

1 an
400-600 €
Île-de-France, France
Description Pour le compte de notre client grand compte, Nous recherchons un Data Analyst sénior sur l’ERP Infor M3 pour accompagner le client sur les données de domaines Finance et Achats Le consultant participera à la cartographie des tables et champs de donnée brutes issus de l’ERP Infor M3 Tâches principales Assurer le cadrage technique des données Collaboration avec les Data Engineers pour identifier les champs pertinents dans M3 Collaboration avec les Data Engineers pour définir les règles de gestion associés Profil Recherché Communication : Confirmé SQL : Confirmé Infor M3 / Movex : Expert Data Analyst : Expert L’Anglais est Obligatoire sur cette mission Lieu : Ile-de-france
Freelance

Mission freelance
Data Analyst

PARTENOR
Publiée le
Dataiku
Google Cloud Platform (GCP)
Gouvernance

1 an
Puteaux, Île-de-France
Notre client réalise une transformation de sa plateforme Data vers la Google Cloud Plateform avec l'adoption de Dataiku en outil de data préparation. Au sein de la direction Intelligence de la donnée, le département Data Management et Business Intelligence a pour objectif de réaliser sa propre transformation et d'accompagner les directions utilisatrices de GCP/Dataiku à exploiter la plateforme dans le cadre défini, de déployer la gouvernance associée et de l'ajuster dans une démarche d'amélioration continue. Nous recherchons un(e) Data analyst pour aider à accompagner cette transformation. Ces travaux mixent des aspects de pilotage, d'accompagnement au changement et de développements BI Data management, Accompagnement au changement, Data-préparation (Dataiku), plateforme GCP.
Freelance
CDI

Offre d'emploi
Quant FO Equity (3 ans et plus)

Digistrat consulting
Publiée le
.NET
Finance
Python

3 ans
50k-70k €
480-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Projet de calibration de la volatilité locale, de la corrélation locale • Marquage de l'asymétrie de corrélation et calcul de ses impacts • Révision de l'algorithme d'asymétrie de corrélation pour les options multi-actifs afin de s'adapter au marché • Création d'un service API pour l'étalonnage LVLC pour les options multi-actifs (Autocall, Dispersion,) • Calibrage de la volatilité entropique et vérification gratuite de l'arbitrage • Correction des prix TRS et des calibrations Repos adaptées aux différentes régions, optimisant ainsi l'efficacité du trading desk • Intégration d'un nouveau tarificateur dans le système pour améliorer la précision des prix multidevises et résoudre les problèmes • Construction de conventions de devises et de références de courbes d'actualisation avec TRO et Swappers • Amélioration du calcul du système P&L : Epsilon, VegaSabr • Calcul des contributions des actions pour les indices propriétaires • Contributions calculées pour la valorisation des indices Propriertary
CDI
Freelance

Offre d'emploi
Chef.fe de projet Data senior

Atlanse
Publiée le
Agile Scrum
Gestion de projet
Méthode Agile

6 ans
55k-65k €
400-550 €
Paris, France
En tant que Chef.fe de projet Data senior – flux de données, vous pilotez la structuration, l’intégration et la fiabilisation des flux alimentant une base annuaire centrale. Votre rôle Cadrage et structuration des flux data · Piloter les études de cadrage avec les partenaires internes et externes · Formaliser les besoins fonctionnels et les exigences en matière de qualité de données · Challenger les demandes du commanditaire au regard des contraintes techniques et d’architecture · Définir les formats d’échange et standards d’intégration (API, fichiers, JSON…) · Identifier les risques (techniques, organisationnels, partenaires) · Définir la feuille de route projet en cohérence avec les enjeux stratégiques et politiques Organisation et fiabilisation des intégrations · Structurer une base annuaire alimentée par des flux multiples (API, fichiers, imports batch…) · Superviser l’intégration progressive de nouvelles sources et fournisseurs de données · Mettre en place ou cadrer les processus de nettoyage, normalisation et déduplication · Définir les mécanismes d’automatisation et de contrôle des flux · Garantir la qualité, la cohérence et la traçabilité des flux intégrés Pilotage projet et coordination transverse · Coordonner les équipes métiers, techniques et partenaires externes · Arbitrer les priorités, suivre les charges, délais et budgets · Organiser les phases de recette et valider la conformité aux exigences définies · Assurer la gouvernance projet et le reporting auprès des instances décisionnelles · Défendre les contraintes techniques et les positions du client face aux parties prenantes Supervision et cohérence globale · Challenger les choix d’architecture en lien avec les équipes techniques · Veiller à la robustesse et à la performance des flux de données · Superviser les mécanismes d’échanges inter-applicatifs · Assurer la cohérence globale entre l’application centrale et les applications connectées
Freelance

Mission freelance
Data Engineer Confirmé / Senior – Snowflake / dbt / Data Vault

CHOURAK CONSULTING
Publiée le
AWS Cloud
Azure
CI/CD

3 mois
400-670 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé ou senior pour intervenir sur une plateforme data moderne reposant sur Snowflake et dbt , avec une forte exigence en modélisation Data Vault . Contexte de la mission : Vous rejoindrez une équipe Data en charge de structurer et faire évoluer une architecture analytique robuste et scalable. La mission s’inscrit dans une logique d’industrialisation, de qualité et de standardisation des flux. Missions principales Concevoir et implémenter des modèles Data Vault (obligatoire) . Développer et optimiser les transformations via dbt . Modéliser et structurer les données dans Snowflake . Participer à la définition des standards d’architecture et des bonnes pratiques. Assurer la qualité, la performance et la traçabilité des données. Collaborer avec les équipes BI (notamment Power BI ) et métiers.
Freelance

Mission freelance
Data Engineer INFORMATICA PowerCenter (Scala, Snowflake, PowerShell, DBT, Airflow, GIT, AWS , SQL )

WINSIDE Technology
Publiée le
Informatica PowerCenter
Scala
Snowflake

3 ans
400-570 €
Paris, France
Votre rôle sera de : - Administrer, maintenir et optimiser la plateforme Informatica PowerCenter (serveurs, repository, workflows, sessions, etc.) - Contribuer activement au décommissionnement en cours d'Informatica via la mise en place d’un Lakehouse AWS (Airflow, DBT, Iceberg, etc.). - Concevoir, développer et documenter des workflows data pour alimenter le data warehouse et les systèmes applicatifs - Concevoir, développer et documenter des workflows Lakehouse avec AWS, Airflow, DBT et Python. - Identifier et résoudre les problèmes de performance ou de qualité des données - Contribuer au run de la plateforme (analyse des incidents, MEP, support production, etc.) ; - Collaborer avec les équipes Data, BI et Infrastructure pour garantir la cohérence et la disponibilité des données - Former et assister les utilisateurs internes (équipe data, développeurs, MOA, etc.) - Proposer des améliorations techniques et de bonnes pratiques sur l’utilisation de la plateforme Compétences et qualités attendues : - Vous justifiez d’une expérience de 5 ans minimum dans un environnement similaire - Vous maîtrisez Informatica, Snwoflake, Airflow, DBT, AWS et aimez les challenges - Vous etes experts dans le développement de solution d'intégration de données. - Vous parlez Anglais couramment - Vous connaissez et maîtrisez les outils JIRA et les méthodes « agiles » n’ont pas de secret pour vous ! - Autonome, ouvert d’esprit et bon communiquant, vous disposez d’une grande curiosité scientifique
Freelance

Mission freelance
Data engineer Google cloud platform (GCP)

CAT-AMANIA
Publiée le
Apache Kafka
Apache Spark
BigQuery

6 mois
Île-de-France, France
Pour le compte d'un acteur majeur, nous recherchons un(e) Data Engineer confirmé(e) pour concevoir et déployer des chaînes de traitement de données complexes au sein d'un Datalake moderne. Vous intégrerez une équipe évoluant en mode Agile (Scrum/Kanban) avec une forte culture de l'automatisation. Vos responsabilités : Concevoir et mettre en œuvre les chaînes d’ingestion, de validation et de croisement de données. Assurer le déversement et l'enrichissement des données dans le Datalake. Produire automatiquement des agrégats (journaliers à mensuels) via la puissance du Cloud. Développer et documenter les User Stories en collaboration directe avec le Product Owner. Garantir la qualité via l'automatisation des tests fonctionnels et la correction des anomalies. Participer activement à la chaîne de delivery continue et assister les équipes d'exploitation. Profil recherché : Expertise confirmée sur la plateforme GCP (indispensable) . Maîtrise avancée de l'écosystème Spark / Scala / Kafka . Expérience solide sur les environnements conteneurisés ( GKE, Docker ) et l'Infrastructure as Code ( Terraform, Ansible ). Compétences pointues en stockage et requêtage ( BigQuery, SQL, HDFS ). Capacité à orchestrer des workflows complexes avec Airflow / Composer . Esprit collaboratif, curieux des évolutions technologiques et doté d'un excellent relationnel.
Freelance

Mission freelance
Développeur AZURE Data Factory pipelines données et optimisation SQL et BDDR

Clémence Consulting
Publiée le
Azure Data Factory
Microsoft SQL Server

3 mois
Paris, France
ROLE ET RESPONSABILITE : La mission comprendra les tâches suivantes : · Créer et optimiser des bases de données (SQL Server principalement). · Prendre en charge les développements de scripts SQL/Procédures. · Prendre en charge les développements des pipelines Azure Data Factory. · Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality). · Être force de propositions sur les optimisations de traitement · Rédaction de la documentation (spécifications techniques), recettes. · Gestion du code source via Microsoft Devops et déploiement CI/CD. · Préparation des livrables pour les mises en production.
CDI

Offre d'emploi
Data Lead H/F

OBJECTWARE
Publiée le
Master Data Management (MDM)

Tours, Centre-Val de Loire
Nous recherchons un Lead Data H/F à Tours pour intervenir sur le déploiement d'un référentiel de données unifié et fiable. Missions : Analyse de l’existant : Cartographier les processus, évaluer les données, analyser et recueillir les besoins. Définition de la cible : Concevoir la solution (modèle, flux, architecture) et en mesurer les impacts. Feuille de route : Structurer les étapes, estimer les ressources et anticiper les risques. Restitution : Animer les ateliers et valider les recommandations.
CDI

Offre d'emploi
Data Analyst GCP

█ █ █ █ █ █ █
Publiée le
BigQuery
SQL

Île-de-France, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Un Développeur Senior Python à Paris

Almatek
Publiée le
Python

3 mois
340-370 €
Paris, France
Almatek recherche pour l'un de ses clients, Un Développeur Senior Python à Paris Ci dessous le besoin : Conception & Développement Backend Développer des fonctionnalités backend complexes en Python (APIs, services, moteurs de calcul, pipelines). Concevoir des architectures modulaires, performantes et maintenables. Optimiser les performances : temps d’exécution, consommation, robustesse, gestion d’erreurs. Data & Traitement avancé Intégrer et manipuler des données issues de différents environnements (bases SQL/NoSQL, data lakes, APIs). Développer des scripts d’automatisation, de transformation ou de scraping avancé. Participer à la mise en place ou l’évolution de pipelines Data/ETL. Qualité & Bonnes pratiques Écrire un code propre, testé, documenté, conforme aux normes (tests unitaires, CI/CD). Améliorer en continu l’existant : refactoring, gestion technique de la dette, optimisation. Participer activement aux revues de code et partager les bonnes pratiques. Intégration DevOps Contribuer aux chaînes CI/CD (GitLab, Jenkins, GitHub Actions…). Packager et déployer les applications (Docker, Kubernetes, OpenShift selon contexte). Travailler étroitement avec les équipes Cloud (AWS / Azure / On-prem) pour assurer la cohérence des environnements. Expertise & Support Technique Accompagner les développeurs moins expérimentés, apporter du mentorat technique. Challenger les décisions d’architecture et proposer des solutions pertinentes. Analyser et résoudre les incidents complexes, optimiser les flux et performances. Le client est très exigeant ; le profil recherché doit être résolument technophile, avec une véritable culture du développement et, idéalement, des compétences en IA.
Freelance
CDI

Offre d'emploi
Data Scientist Computer Vision

Codezys
Publiée le
Computer vision
Deep Learning
Machine Learning

12 mois
Grand Est, France
Objet : Appel d'offres pour un(e) Data Scientist spécialisé(e) en Computer Vision - Alsace Notre entreprise, leader dans l'accompagnement à l'aménagement intérieur, souhaite renforcer ses capacités en intégrant des solutions basées sur l'intelligence artificielle et la vision par ordinateur. Afin de soutenir notre croissance, nous lançons un appel d'offres pour le recrutement d’un(e) Data Scientist spécialisé(e) en Computer Vision, ayant une expérience minimale de 2 ans. Contexte de la mission : Nous exploitons la donnée et les technologies d’intelligence artificielle pour révolutionner la manière dont nos équipes commerciales identifient les besoins clients, ainsi que la représentation et la configuration en temps réel de scènes d’ameublement. La personne recrutée jouera un rôle clé dans le développement et la déploiement de modèles de vision par ordinateur destinés à analyser des images et en extraire des insights opérationnels pertinents. Localisation : Alsace Vos missions principales : Développement de modèles de Computer Vision : Concevoir et entraîner des modèles capables d’identifier les objets, leurs fonctions et contenus à partir d’images. Support aux équipes commerciales : Accompagner les équipes dans l’exploitation des outils d’analyse visuelle, y compris la classification et l’interprétation des images. Déploiement et maintenance : Implémenter et assurer la maintenance des solutions de traitement d’images en production, en utilisant notamment Google Cloud Platform (GCP) et Vertex AI. Conception de pipelines : Développer des pipelines et des algorithmes permettant la visualisation en temps réel des scènes d’ameublement, facilitant ainsi la prise de décisions commerciales. Collaboration métier : Travailler étroitement avec les équipes métier pour traduire les enjeux business en solutions techniques concrètes, assurer leur déploiement efficace et leur adoption opérationnelle. Veille technologique : Maintenir une expertise à jour en matière de vision par ordinateur afin d’intégrer les dernières innovations dans nos solutions.
CDI
Freelance

Offre d'emploi
Architecte Big Data

KLETA
Publiée le
Apache Kafka
Apache Spark
ELK

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Big Data pour définir et piloter l’évolution des plateformes de données à grande échelle. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures distribuées en intégrant des technologies telles que Hadoop, Spark, Kafka, Iceberg/Delta Lake ou équivalents, ainsi que des principes modernes de lakehouse et de data mesh lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance et de sécurité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques Big Data et data engineering.
Freelance

Mission freelance
Senior Data Scientist IA / Computer Vision / GenAI

Signe +
Publiée le
Agent IA

12 mois
500-700 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Dans le cadre du développement de solutions technologiques innovantes destinées aux acteurs de la mobilité et de la gestion de flottes, une équipe data souhaite se renforcer avec un Senior Data Scientist spécialisé en intelligence artificielle. L’objectif est de concevoir et industrialiser des modèles avancés permettant d’optimiser la performance opérationnelle, la sécurité et la durabilité des solutions proposées. Objectif de la mission Concevoir, développer et industrialiser des briques d’intelligence artificielle avancées (computer vision, modèles prédictifs, IA générative, systèmes agents) dans un environnement produit data innovant. Missions principales Conception et développement IA Concevoir des algorithmes d’IA pour des modèles prédictifs (risque, consommation, maintenance, performance) Analyser les performances des modèles et suivre les KPI Assurer la traçabilité des itérations et la non-régression Participer à l’industrialisation des modèles IA générative et systèmes agents Contribuer aux travaux autour des modèles de langage (LLM) Développer des solutions d’IA générative et de systèmes agents Participer à l’animation d’une communauté technique IA Innovation et vision Assurer une veille technologique active Proposer des orientations techniques innovantes Contribuer à des travaux de recherche et d’innovation Collaborer avec des partenaires externes (labos, start-ups, éditeurs) Coordination et communication Interagir avec les équipes techniques et métiers Comprendre les besoins opérationnels des utilisateurs Participer à la rédaction et validation des tickets techniques et releases Présenter les résultats et recommandations Livrables attendus Briques algorithmiques industrialisables Indicateurs de performance et analyses Documentation technique Contributions à la roadmap data / IA Recommandations techniques et stratégiques Compétences obligatoires Expertise en intelligence artificielle et machine learning avancé Expérience sur les modèles de langage (LLM) et systèmes agents Connaissances solides en computer vision Expérience en industrialisation de modèles data Capacité à piloter des projets data complexes Esprit analytique et critique Compétences appréciées Connaissance des environnements cloud / MLOps Expérience produit data ou solutions innovantes Interaction avec écosystèmes de recherche Participation à projets innovants ou brevets
3370 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous