Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 405 résultats.
Freelance

Mission freelance
Ingenieur Data RH

Comet
Publiée le
Azure Data Factory
BI
Databricks

12 mois
400-620 €
Île-de-France, France
Compétences techniques : Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Freelance
CDI

Offre d'emploi
AI Engineer

VISIAN
Publiée le
Agent IA
Python

1 an
40k-75k €
400-800 €
Paris, France
Objet de la prestation Le bénéficiaire recherche 3 consultants AI Engineer (junior à senior) disposant d’une double compétence en intelligence artificielle générative et en développement logiciel. Positionnement Profils capables de développer des solutions IA en production, d’intégrer des LLM dans des architectures applicatives et de contribuer à leur industrialisation et à leur monitoring. Développement de solutions IA (chatbots, agents, RAG, etc.) en Python Intégration et orchestration de LLM via des frameworks type LangChain / LangSmith Conception d’architectures applicatives hybrides (IA + backend classique) Participation à la mise en place de pipelines de traitement de données et d’inférence Implémentation de mécanismes d’ observabilité (monitoring, logs, métriques, tracing) Contribution aux pratiques AI Ops / MLOps : gestion des modèles versioning déploiement monitoring en production Collaboration avec les équipes métiers, data et IT dans un environnement Agile Participation aux phases de tests, validation et amélioration continue des modèles
Freelance
CDI

Offre d'emploi
Consultant IA / DATA

Tritux France
Publiée le
Data analysis
Data science
IA Générative

3 ans
Île-de-France, France
Apporter une expertise technique et produire des livrables sur les deux initiatives Low Code - No Code et Data Access ; API du plan stratégique de l'IT CIB. Expertise techniques data, API, Low Code - No Code, Citizen dev. Project management. Stratégie IT, Change et Transformation Contexte Vous rejoignez l’équipe Data & Innovation au sein de l’IT Transversale de Corporate ; Investment Banking. Nous travaillons à la réalisation de projets de data sciences (Data Analytics ; Visualization, Generative AI et Machine Learning) pour les métiers bancaires de la CIB afin d’explorer au maximum les opportunités business. Si vous êtes passionné par la Data Science et l'innovation technologique, vous serez heureux de rejoindre un environnement dynamique, exigeant et bienveillant au plus près du métier de la CIB.
Freelance

Mission freelance
Senior Data Engineer

Signe +
Publiée le
Talend

6 mois
440-550 €
Vélizy Espace, Île-de-France
Contexte Dans le cadre d’un programme de transformation Data, le consultant interviendra sur la conception et l’industrialisation de pipelines de données, la structuration des plateformes Data et la collaboration avec les équipes métiers et techniques. Missions principales Conception et optimisation de pipelines ETL (Talend, SSIS, Azure Data Factory) Ingestion et traitement de données en environnement cloud (BigQuery, Cloud Storage, Dataproc) Conception de Data Warehouses, Data Marts et Data Cubes Intégration de données via API, fichiers et flux batch Participation au cadrage, data discovery et qualification Optimisation SQL, DAX, MDX Mise en place de CI/CD data Contribution à la structuration du Data Lake Compétences techniques Talend / SSIS / Azure Data Factory SQL Server (SSIS, SSAS, Reporting) SQL avancé, DAX, MDX Azure DevOps / GitLab Architectures Data modernes / Data Lake Profil recherché Senior Data Engineer confirmé Forte autonomie et capacité d’analyse Capacité à travailler en environnement international
Freelance

Mission freelance
Data Engineer Snowflake (Lyon)

SQLI
Publiée le
Snowflake

1 an
400-500 €
Lyon, Auvergne-Rhône-Alpes
Bonjour, Pour le compte de l'un de mes clients dans le secteur de l'électroménager, je suis à la recherche d'un Data Engineer Snowflake. Son rôle : Participer à des ateliers d’analyse des besoins avec les partenaires commerciaux (finances, ventes, achats, etc.) Suggérer & construire des architectures techniques adaptées, en se concentrant sur la fiabilité ainsi que les performances Développer & maintenir des flux de données, notamment dans le contexte de migration vers Snowflake Optimiser les performances des applications existantes et assurer une documentation approfondie
CDI
Freelance

Offre d'emploi
Architecte Data/Snowflake/Cloud/GenAI

OBJECTWARE
Publiée le
Cloud
GenAI
Snowflake

3 ans
40k-71k €
400-550 €
Île-de-France, France
CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Langages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
Freelance

Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS

PROPULSE IT
Publiée le
Azure
BI
DevOps

24 mois
325-650 €
France
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
CDI
Freelance

Offre d'emploi
Consultant Power BI / Azure Data Factory (H/F)

Webnet
Publiée le
Azure
Azure Data Factory
BI

12 mois
48k-55k €
480-550 €
Paris, France
Dans le cadre du renforcement d’une équipe Data, nous recherchons un Consultant Power BI / Azure Data Factory pour intervenir sur des projets décisionnels dans un environnement Microsoft Azure . Vous aurez pour missions : Au sein de l’équipe Data et en collaboration avec le chef de projet, vous interviendrez sur les activités suivantes : Développer et faire évoluer des rapports et tableaux de bord Power BI Concevoir et maintenir des pipelines de données avec Azure Data Factory Développer et optimiser des scripts SQL, vues et procédures stockées Participer à la modélisation des données Proposer des optimisations de performance et d’architecture Data Rédiger la documentation technique et les spécifications Gérer le versionning du code via Git / TFS Participer aux processus de déploiement CI/CD Préparer les livrables pour les mises en production
CDI

Offre d'emploi
Consultant Sénior Back-End LLM

MGI Consultants
Publiée le
FastAPI
Google Cloud Platform (GCP)
Large Language Model (LLM)

55k-60k €
Paris, France
Rejoignez-nous pour une mission chez notre client du secteur de la restauration basé à Paris 8ème en tant que Consultant Sénior Back-End LLM. En tant que Senior Backend Engineer, vos missions seront les suivantes : Product & Delivery Prendre en charge des fonctionnalités backend complexes de bout en bout, de la conception au déploiement et à l’itération Collaborer étroitement avec les product managers, les ingénieurs frontend et les équipes opérations Concevoir et construire des APIs et services scalables alimentant les outils internes et orientés clients Garantir la fiabilité et la performance des systèmes critiques (commande, paiement, opérations) System Design & Engineering Excellence Concevoir des architectures robustes et scalables sur Google Cloud Platform Améliorer la fiabilité, l’observabilité et la performance des systèmes Écrire du code propre, maintenable et bien testé Animer des discussions techniques et contribuer aux décisions d’architecture et aux bonnes pratiques Améliorer en continu le CI/CD, le monitoring et la résilience des systèmes AI & Innovation Évaluer quand utiliser des LLMs vs des approches de développement traditionnelles selon la fiabilité, la performance, le coût et la maintenabilité Utiliser des outils comme Claude Code, Cursor ou d’autres environnements assistés par IA Prendre des décisions pragmatiques entre build, prompt ou architectures hybrides Contribuer à définir les bonnes pratiques autour de l’ingénierie assistée par IA au sein de l’équipe Mentorat & Impact Accompagner d’autres ingénieurs via des revues de code, du pair programming et du partage de connaissances Élever le niveau de qualité, de performance et de scalabilité du backend Prendre la responsabilité de sujets techniques et mener des améliorations sur l’ensemble de la stack backend Contribuer à une culture d’autonomie, de responsabilité et d’amélioration continue Informations clés : Démarrage : ASAP Lieu : Paris 8 Contrat : CDI chez notre client Télétravail : 2 jours de Télétravail / 3 jours sur site Rémunération : 55/60 K€ selon expérience
Freelance

Mission freelance
Développeur Symfony Senior

Axysse
Publiée le
PHP
RabbitMQ
Symfony

1 an
400-550 €
Île-de-France, France
Dans le cadre d’un projet à forte visibilité, nous recherchons un Développeur Symfony Senior pour intervenir sur des plateformes à fort trafic, orientées performance, scalabilité et qualité logicielle. Vous intégrerez un environnement technique exigeant, avec des problématiques concrètes de volumétrie, de cache et de traitement asynchrone. 🎯 Vos missions Concevoir et développer des API performantes et évolutives sous PHP 8 / Symfony Mettre en œuvre des architectures robustes basées sur les principes SOLID et les design patterns Implémenter des systèmes de traitement asynchrone (RabbitMQ, messaging) Optimiser les performances applicatives (cache, temps de réponse, WebPerf) Travailler sur des flux de données volumineux (catalogues médias, métadonnées complexes) Garantir la qualité du code via des pratiques de tests automatisés (PHPUnit, TDD) Participer à l’amélioration continue des performances (Core Web Vitals, TTFB) 🛠️ Stack & environnement technique PHP 8.x / Symfony (Messenger, Workflow, Serializer) RabbitMQ (queues, messaging) Varnish (cache, reverse proxy, stratégies d’invalidation) API REST / architectures distribuées Tests : PHPUnit, TDD Environnements à forte volumétrie et haute disponibilité ➕ Atouts supplémentaires Connaissances en SEO technique (indexation, données structurées) Sensibilité aux enjeux d’ accessibilité (RGAA) Expérience avec des solutions CDN (Cloudflare, Akamai, CloudFront) 📍 Modalités Mission hybride avec présence sur site (≈50%) Environnement structuré avec suivi d’activité mensuel Projet long terme avec forte valeur technique
Freelance

Mission freelance
246239/100961/Product Owner DATA/IA Nantes

WorldWide People
Publiée le
Pilotage

6 mois
350-400 €
Nantes, Pays de la Loire
Product Owner Nous recherchons un profil Product Owner expérimenté. Product Owner en binôme/complémentarité avec un PO déjà en place sur la brique IA Gen (SG1) Activités principales attendues : Onboarding & adoption SG1, suivi satisfaction et améliorations orientées DX Cadrage & priorisation : formalisation des besoins, roadmap, arbitrages Quotas & gouvernance d’usage Déploiement/communication produit : guides, catalogue, notes de version, animation de la communauté Collaboration étroite avec le PO SG1 et les parties prenantes techniques/utilisateurs Objectifs et livrables Objectifs & enjeux de la mission : Product Owner en binôme/complémentarité avec un PO déjà en place sur la brique IA Gen (SG1) afin : Accroître la capacité de pilotage produit et accélérer l’adoption des services IA partagés au sein de la Plateforme DATA/IA Accompagner les équipes utilisatrices (prise en main, clarification des parcours d’usage, bonnes pratiques, support API) Définir/ajuster une gouvernance d’usage pragmatique, notamment les quotas par cas d’usage (volumétrie, criticité, performance) pour sécuriser la QoS et optimiser la consommation Préparer l’extension progressive de l’offre avec l’arrivée de nouveaux services partagés (OCR, Embedder, Speech2Text) : parcours, documentation, conditions d’accès, support, KPIs d’adoption. Compétences demandéesCompétences Niveau de compétence Pilotage Confirmé
Freelance

Mission freelance
Data Engineer python/ Big Data/ AWS/ Redshift/ Linux / Energie (H/F)

Octopus Group
Publiée le
Amazon Redshift
API
AWS Cloud

6 mois
500-550 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client dans l'énergie, un data Engineer Objectifs : Participer au développement des assets de la nouvelle plateforme de données. Participer au cadrage et au lancement des projets d'ingénierie et d’intelligence artificielle. Prise en main des sujets pilotes et d’assurer le Run La conception, la modélisation et l’optimisation des requêtes Redshift est un point clé dans cette mission Missions : Vous participer à la construction de la data plateform dans sa deuxième phase permettant de consolider le socle et mettre à disposition les moyens technique pour exploiter la donnée Vous participez à l’étude opérationnelle de cadrage et d’architecture en anticipant les différentes contraintes avec les référents de l’équipe. Vous serez amené à réaliser des POC et de spiker le backlog. Vous complétez l’équipe avec vos compétences en ingénierie de données et en développement (scripting python, d’expertise sur les API, les tests, les bonnes pratiques, etc.) Vous consacrer votre temps à travailler avec un squad Data Métier, de proposer des solutions technique pour les clients associé, d’assurer le Run et de développer la plateforme associée, et, ce, toute en respectant les consignes d’architecture Participer à la mise en place des projets d’AI engineering - Savoir maîtriser les coûts des services est un Must pour ce poste et être force de proposition
CDI

Offre d'emploi
Revenue Data Analyst F/H - Finance, trésorerie (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel

Voisins-le-Bretonneux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Migration Lead (SAP S/4HANA Greenfield)

HOXTON PARTNERS
Publiée le
Data management

3 ans
680-900 €
Paris, France
Contexte : Nous recherchons un Data Architect / Data Migration Lead pour rejoindre l’équipe Data & AI d’un acteur majeur de l’industrie des boissons, reconnu pour la qualité de ses produits et sa présence internationale. Missions principales : Piloter et coordonner le stream Data Migration dans le cadre d’un projet SAP S/4HANA Greenfield. Définir la stratégie de migration de données et assurer son alignement avec les autres streams du programme. Planifier, suivre et assurer le reporting des activités de migration. Coordonner les différentes parties prenantes (équipes techniques, fonctionnelles, métiers) sur les phases d’extraction, transformation et chargement des données. Superviser la conception et le développement des programmes de migration. Organiser et suivre les mocks de migration (planning, exécution, reporting). Compétences recherchées : Expertise en migration de données SAP (S/4HANA, Greenfield) . Solides connaissances en Data Architecture, Data Access, Data Taxonomy . Expérience en pilotage transverse avec équipes techniques et métiers. Très bon niveau d’anglais. Modalités : Mission longue durée (21 mois). Localisation : Paris, avec 2 jours de télétravail par semaine. 📩 Si vous êtes intéressé(e), merci de me contacter en partageant votre CV actualisé et vos disponibilités. 📍 Lieu : Paris (2 jours de télétravail par semaine) 🌐 Langue : Anglais (obligatoire)
Freelance

Mission freelance
Consultant Confirmé Data Gouvernance Collibra

Net technologie
Publiée le
Collibra
Data governance

3 mois
Paris, France
Dans le cadre de l’industrialisation de notre démarche de Data Governance , nous recherchons un consultant expert technique Collibra pour rejoindre notre équipe Data, en lien direct avec les architectes DSI. 🎯 Objectif de la mission : Renforcer le catalogage des données et la traçabilité (data lineage) dans un programme structurant couvrant toute la chaîne de valeur de la donnée, de l’acquisition à la restitution. 🔧 Vos principales responsabilités Configuration et évolution de l’ operating model Collibra Modélisation des Data Products et gestion des rôles & permissions Paramétrage des workflows, scripting, APIs, validation rules Gestion des migrations (import/export), manipulation massive d’assets Exploitation et interprétation des connecteurs Modélisation et documentation du technical lineage Déploiement et gestion des environnements DEV/PROD 📦 Livrables attendus : Expressions de besoins & cadrage Workflows configurés Catalogues de données alimentés Lineage documenté Documentation technique (en anglais)
Freelance
CDI

Offre d'emploi
Business Data Analyst Pré‑Trade Énergie & Commodities

WHIZE
Publiée le
Big Data
Finance

3 ans
Paris, France
Le Business Analyst Pré‑Trade intervient au cœur des activités Front‑to‑Middle sur les marchés de l’énergie (électricité, gaz, pétrole, émissions, garanties d’origine). Il accompagne les desks trading dans l’analyse, la structuration et l’évolution des processus pré‑trade, ainsi que dans la gestion et la qualité des données de marché. Ses missions couvrent l’analyse fonctionnelle, la compréhension des produits énergie, la modélisation des données, et l’amélioration continue des systèmes ETRM/CTRM. Le rôle est orienté trading, opérationnel et data , sans dimension Risk. Missions principales Analyser les besoins des desks Power, Gas, Oil, Emissions et Renewables. Étudier les mécanismes des marchés spot, intraday, day‑ahead, balancing et dérivés énergie. Documenter et optimiser les workflows pré‑trade : saisie d’ordres, enrichissement, contrôles, validation. Analyser les contract features des produits énergie : profils horaires, règles de livraison, indexations, contraintes physiques. Structurer et fiabiliser les market data énergie : prix spot/forward, courbes, données fondamentales, données issues des plateformes (EPEX, ICE, NordPool…). Comprendre et documenter le fonctionnement de l’ order book : profondeur, liquidité, matching. Réaliser des analyses data (SQL, Python) et produire des dashboards pour les équipes trading. Rédiger des spécifications fonctionnelles (user stories, règles métier, mapping de données). Participer aux phases de tests (UAT, non‑régression) et accompagner les utilisateurs lors des déploiements.
3405 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous