Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 503 résultats.
Freelance

Mission freelance
Data Engineer Informatica Talend Power B.I SQL (F/H)

CELAD
Publiée le
Big Data
Informatica
Microsoft Power BI

12 mois
400-460 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un Data Engineer – Plateforme Epargne Financière pour intervenir chez un de nos clients du secteur bancaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Sécuriser la gestion de l’actualisation de l’offre Epargne Financière en lien avec les équipes partenaires distributeurs et producteurs. - Faire évoluer la solution en respectant les standards à jour : implémentation de changements à valeur ajoutée pour le business et traitement de la dette technique. - Contribuer à la gestion du RUN et renforcer la robustesse de la solution. - Renforcer la supervision et la qualité des données.
CDI
Freelance

Offre d'emploi
Architecte Data/Snowflake/Cloud/GenAI

OBJECTWARE
Publiée le
Cloud
GenAI
Snowflake

3 ans
40k-71k €
400-550 €
Île-de-France, France
CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Langages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
Freelance

Mission freelance
Développeur Plateforme IA Agentique (H/F) x 3

Freelance.com
Publiée le
Agent IA
Angular
Apache Kafka

1 an
520-580 €
Île-de-France, France
Dans le cadre du développement d’une plateforme stratégique dédiée à l’intelligence artificielle, nous recherchons un développeur expérimenté pour intervenir sur la conception, l’évolution et l’industrialisation d’une plateforme agentique. Cette plateforme constitue un socle central permettant de concevoir, orchestrer et sécuriser des agents IA à destination des métiers. Elle intègre des composants tels qu’un registre d’agents, des mécanismes d’orchestration, des standards de gouvernance ainsi que des outils de conformité et de sécurité. Au sein d’un train plateforme, vous interviendrez sur : La conception et le développement de solutions autour des agents IA (frameworks agentiques, workflows, orchestration) L’intégration de modèles de GenAI (LLM, RAG, prompt engineering) La structuration et l’industrialisation des pipelines techniques (CI/CD, automatisation, infrastructure as code) La cohérence technique entre plusieurs équipes (data, IA, plateforme) L’évolution de l’architecture produit en lien avec les enjeux métiers et technologiques Vous jouerez un rôle clé dans la construction d’une plateforme robuste, scalable et sécurisée, en lien étroit avec les équipes d’ingénierie et les parties prenantes.
CDI
Freelance

Offre d'emploi
Concepteur / Développeur C#

INFOTEL CONSEIL
Publiée le
C#

2 ans
Île-de-France, France
Nous accompagnons l’un de nos clients grands comptes dans le renforcement de ses équipes et recherchons à ce titre un développeur C# expérimenté. Mission longue durée : ==> Contexte : MCO d'une application métier de gestion de contrats d'assurance de personnes (développement spécifique) ==> Activités : Analyse technique, développement, tests unitaires, gestion des non-conformités, maintenance (curative/évolutive/préventive), traitement des incidents prod, déploiement ==> Stack technique : C#, Visual Studio, GitLab ==> Profil : Développeur confirmé, autonome, rigoureux, esprit d'équipe ==> Localisation : Ile de France - 2j/semaine télétravail
Freelance

Mission freelance
Chef de Projet/ Data - Success factor (obligatoire) - Full Remote

WorldWide People
Publiée le
SAP SuccessFactors

9 mois
400 €
France
Chef de Projet/ Data - Success factor (obligatoire) EXP : +5 ans Compétences (1 à 3) : ☒ Gestion de projet 2 ☒ Conception de test 2 ☒ analyse de données 3 ☒ rédaction de contrat d’interface 2 ☒ définition de stratégie de recette 2 ☒ Coordination d’acteur 2 ☒ excel 3 ☒ Administration fonctionnelle de Success factor module EC 3 ☐ Outil de requêtage de base de données 3 ☐ Supervision des traitements batch 2 Missions : Stabilisation des interfaces EC => · Analyse et correction des erreurs. · Suivi quotidien des flux (API, IC, middleware). · Mise en qualité des échanges de données. Optimisation des flux SF ↔ middleware => · Audit des interfaces existantes. · Simplification et amélioration des mappings / règles. Accompagnement à l’implémentation de nouvelles interfaces => · Rédaction des specs techniques. · Coordination IT / middleware. · Tests et support post go-live.
Freelance

Mission freelance
DATA ENGINEER / TECH LEAD

Codezys
Publiée le
Conception
Informatica
Power BI Desktop

12 mois
450-550 €
Toulouse, Occitanie
Contexte de la mission Nous recherchons un(e) chef de projet technique / ingénieur data expérimenté(e), possédant des compétences avérées en SQL, ETL et outils de reporting. La mission concerne le domaine du datawarehouse de cargaison, spécialisé dans le chargement et la transformation de données pour les filiales AF&KL. La personne sélectionnée devra accompagner l’équipe dans la gestion des projets en cours ainsi que dans le développement de nouvelles fonctionnalités, en apportant son expertise pour les corrections et améliorations futures. Le poste s’inscrit au sein d’une équipe composée de huit membres, et la présence à Toulouse est obligatoire. Objectifs et livrables Contribuer à la maintenance et à l’évolution du datawarehouse cargo, en garantissant la qualité et la performance des données. Participer à la conception, au développement et à la mise en œuvre des nouvelles fonctionnalités et corrections. Collaborer étroitement avec l’équipe pour assurer la cohérence et l’efficacité des processus de chargement et de transformation des données. Fournir une documentation claire et précise des livrables réalisés. Conditions particulières Localisation : obligatoire à Toulouse. Veuillez fournir la matrice jointe détaillant les niveaux de compétence pour chaque profil proposé. Nous demandons uniquement la soumission de candidats correspondant strictement aux compétences requises, notamment pour les niveaux 3/4 ou 4/4 dans les compétences clés mentionnées.
Freelance
CDI
CDD

Offre d'emploi
Data Engineer – Pipelines de données (SQL / ETL / AWS) – H/F

SMARTPOINT
Publiée le
API
AWS Cloud

1 an
50k-60k €
400-500 €
Île-de-France, France
Dans le cadre du renforcement de nos équipes data, nous recherchons un Data Engineer (H/F) pour intervenir sur la conception, le développement et la maintenance de pipelines de données ainsi que sur l’exploitation et l’amélioration des solutions techniques associées. Vous contribuerez au bon fonctionnement des plateformes data en assurant le développement de pipelines ETL/ELT, la manipulation de données et le maintien en conditions opérationnelles des systèmes . Vous évoluerez dans un environnement technique moderne reposant sur des architectures API/Webservices, des solutions cloud AWS et des pratiques DevOps .
Freelance

Mission freelance
250824/Expert Talend, Talend Data management, Anglais Courant

WorldWide People
Publiée le
Talend

6 mois
Vélizy-Villacoublay, Île-de-France
Expert Talend, ETL, Talend Data management, Anglais Courant L’équipe Data Foundations souhaite bénéficier de l’assistance technique d’un expert technique Talend, disposant d’une solide expérience Data, afin d’accompagner les projets d’intégration de données. Goals and deliverables Le consultant interviendra notamment sur les activités suivantes : Application des bonnes pratiques et standards Talend Data Management, de la phase de développement jusqu’au déploiement, en collaboration avec le ETL Tech Lead Support aux projets lors des phases d’implémentation : qualification des données, transformation et intégration Mise en œuvre et respect de l’architecture cible, de la stratégie Data et des patterns ETL, en collaboration avec les experts techniques Analyse des besoins métiers et techniques, incluant l’évaluation de la faisabilité technique et de la charge associée Développement des jobs Talend, déploiement, réalisation des tests d’acceptation et rédaction de la documentation Réalisation d’audits de jobs ETL Définition des pré‑requis techniques et des templates Rédaction des spécifications techniques Expected skills Skills Skill level ETL Expert TALEND Expert Talend Data management Expert Languages Language level Anglais Bilingual
Freelance

Mission freelance
Développeur Full Stack Python - full remote

Net technologie
Publiée le
Apache Airflow
Azure
IA

3 mois
450-500 €
France
Renforcer et fiabiliser une plateforme interne utilisée par les équipes commerciales , qui permet de sélectionner des leads via Salesforce et d’interagir avec un backend API . Aujourd’hui, la plateforme a des soucis de stabilité et de fiabilité . La mission consiste donc à la stabiliser, l’optimiser et à y ajouter des fonctionnalités d’intelligence artificielle générative pour guider les actions commerciales et améliorer la performance des équipes. 🛠️ Missions principales Stabiliser et optimiser le backend existant Assurer une bonne communication entre Salesforce et le backend via API Intégrer des recommandations guidées par IA générative pour aider les commerciaux Automatiser et orchestrer les workflows avec Apache Airflow Déployer et gérer la plateforme sur Microsoft Azure Développer de nouvelles fonctionnalités en Full Stack Python
Freelance

Mission freelance
POT9076 - Un Chef de Projet/ Data - Success factor à IDF

Almatek
Publiée le
API

6 mois
Île-de-France, France
Almatek recherche pour l'un de ses clients ,Un Chef de Projet/ Data - Success factor à IDF Compétences (1 à 3) : • Gestion de projet 2 • Conception de test 2 • analyse de données 3 • rédaction de contrat d’interface 2 définition de stratégie de recette 2 • Coordination d’acteur 2 • excel 3 • Administration fonctionnelle de Success factor module EC 3 • Outil de requêtage de base de données 3 • Supervision des traitements batch 2 Missions : Stabilisation des interfaces EC => • Analyse et correction des erreurs. • Suivi quotidien des flux (API, IC, middleware). • Mise en qualité des échanges de données. Optimisation des flux SF ? middleware => • Audit des interfaces existantes. • Simplification et amélioration des mappings / règles. Accompagnement à l’implémentation de nouvelles interfaces => • Rédaction des specs techniques. • Coordination IT / middleware. • Tests et support post go-live.
CDI

Offre d'emploi
CDI – Data Engineer Databricks (AWS) – 3 à 7 ans d’expérience

Hexateam
Publiée le
Amazon S3
Apache Airflow
AWS Glue

La Défense, Île-de-France
Contexte Dans le cadre de notre croissance, nous recrutons un Data Engineer pour intervenir sur des environnements Databricks sur AWS, avec des enjeux d’ingestion, de transformation et de fiabilité des données. Missions Développement et ingestion de données • Concevoir et développer des pipelines de données en Python et Spark sur Databricks • Mettre en place des flux entre sources externes (ex : Oracle) et un Data Lake (S3 / Delta Lake) • Optimiser les traitements et les performances Orchestration et qualité des données • Orchestrer les workflows avec AWS Airflow • Mettre en place des contrôles qualité et des mécanismes de validation • Développer des outils de monitoring et de gestion des anomalies Maintien en condition opérationnelle • Assurer la disponibilité et la performance des pipelines • Diagnostiquer et corriger les incidents • Participer à l’amélioration continue des traitements Contribution • Participer aux ateliers techniques et aux échanges avec les équipes • Documenter les pipelines, architectures et processus • Contribuer aux bonnes pratiques Data et Big Data
Freelance
CDI

Offre d'emploi
Data Analyst Microsoft H/F

OBJECTWARE
Publiée le
Data Warehouse
DAX
Microsoft Fabric

1 an
40k-55k €
400-490 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Data Analyst qualifié et orienté métier pour rejoindre notre équipe Data Fabric. Dans ce rôle, vous serez chargé de traduire les besoins métiers internes en spécifications fonctionnelles structurées, modèles analytiques, tableaux de bord pertinents et analyses exploitables, afin de soutenir la prise de décision basée sur la donnée au sein de l'organisation. Responsabilités principales Analyse des besoins métiers et compréhension des données Identifier et analyser les besoins des clients internes et les traduire en cas d'usage analytiques clairs et spécifications de reporting. Collaborer avec les parties prenantes métier pour comprendre les processus, KPI et flux de prise de décision, ainsi que la logique métier derrière les indicateurs demandés. Développer et maintenir une bonne compréhension des modèles de données de la plateforme, des domaines de données de référence (ex. Client, RH, Finance) et des produits de données préparés (curated). Accompagner les responsables de domaines de données et les demandeurs de projets dans la planification des modèles de données et des transformations, en s'assurant de la clarté des définitions avant l'implémentation technique. Valider les définitions des indicateurs et les règles métiers afin de garantir leur cohérence entre les différents domaines et rapports. Développement analytique et visualisation Concevoir, développer et maintenir des tableaux de bord et rapports analytiques avec Power BI. Créer des modèles sémantiques et des mesures alignés avec les définitions métiers et les standards de gouvernance établis. Garantir que les tableaux de bord soient intuitifs, fiables et optimisés en performance. Améliorer en continu les visualisations et structures de reporting en fonction des retours des parties prenantes. Collaboration avec la plateforme Data Travailler étroitement avec les Data Engineers pour s'assurer que les transformations de données répondent à la logique métier et aux besoins de reporting. Fournir des retours sur la qualité des données, l'utilisabilité des modèles et les éventuelles lacunes dans les produits de données. Promouvoir des définitions cohérentes des KPI et de bonnes pratiques de documentation. Accompagner l'onboarding des nouveaux utilisateurs de la plateforme en leur fournissant des orientations sur les datasets disponibles et les capacités de reporting. Contribuer aux pratiques de gouvernance des données en documentant les définitions des indicateurs, la propriété des rapports et les règles d'utilisation.
CDI
Freelance

Offre d'emploi
Product Owner (H/F) – Data / API / Kafka

Proxiad
Publiée le
Apache Kafka
Backlog management
Rédaction des spécifications fonctionnelles

12 mois
40k-45k €
400-500 €
Lille, Hauts-de-France
🌟 Contexte Dans le cadre d’un programme stratégique au sein du groupe ADEO, nous recherchons un Product Owner pour intervenir sur le produit Purchase Price & Profitability , et plus précisément sur le composant “Eco-contributions” . 👉 Objectif : piloter et structurer une solution permettant de gérer les éco-contributions (ex : DEEE) à l’échelle du groupe. 📅 Roadmap : Fin du cadrage business : T1 2026 Lancement des développements : T2 2026 Mise en production : déploiement sur 2 Business Units d’ici fin 2026 🎯 Enjeu majeur : remplacer une partie du legacy et construire un produit à forte valeur métier. 🎯 Votre mission En tant que Product Owner , vous êtes responsable de la vision produit et de la maximisation de la valeur métier. 🧩 Pilotage produit Concevoir et faire évoluer le produit en lien avec les métiers et utilisateurs Définir la vision produit et contribuer à la stratégie (quarter plan / PI planning) Rédiger les documents de cadrage 📊 Gestion du backlog & delivery Construire, alimenter et prioriser le Product Backlog Rédiger les User Stories / Epics (Jira) Définir les priorités en fonction des enjeux métier et techniques Suivre les KPI métier pour mesurer la valeur créée 🤝 Animation & coordination Animer les rituels agiles (sprints, reviews, etc.) Assurer la communication produit (slides d’avancement, reporting) Collaborer étroitement avec les équipes techniques et métiers ✅ Recette & qualité Valider les développements réalisés Organiser les phases de recette métier Garantir la qualité et la non-régression des livrables
Freelance
CDD

Offre d'emploi
Senior Smart Automation Developer (Dataiku / Agentic AI) H/F

SMARTPOINT
Publiée le
AWS Cloud
Azure
Dataiku

12 mois
60k-70k €
600-700 €
Île-de-France, France
Dans le cadre d'un projet de développement des capacités en Smart Automation & Agentic AI , notre client renforce son équipe avec un Senior Smart Automation Developer . Son ambition : concevoir des automatisations intelligentes capables d’orchestrer les données, les systèmes applicatifs et les agents IA , afin d’optimiser et transformer les processus métiers. Vous interviendrez sur des projets innovants basés sur la plateforme Dataiku et ses capacités LLM Mesh , au cœur des enjeux d’IA générative et d’automatisation avancée.
Freelance

Mission freelance
Senior Full Stack Engineer (Python / React) H/F

Comet
Publiée le
Application web
BigQuery
Google Cloud Platform (GCP)

3 mois
500-650 €
Île-de-France, France
Nous recherchons un Senior Full Stack Engineer pour intervenir sur une mission stratégique autour de systèmes de recommandation et d’IA appliquée au produit. Contexte de la mission Mission au sein d’un grand groupe international du secteur beauté / retail , travaillant sur des sujets avancés d’IA et de personnalisation à grande échelle. Vous rejoindrez une squad produit travaillant sur une plateforme de recommandation intelligente capable de générer des parcours personnalisés à grande échelle. Le système combine data science, règles métier complexes et expérience utilisateur temps réel. Vous interviendrez sur un produit critique utilisé en interne pour tester, visualiser et améliorer les recommandations issues d’algorithmes avancés. Stack technique Backend Python (FastAPI) – expertise senior requise AsyncIO / Pydantic v2 Redis (caching), Firestore, BigQuery Architecture API REST, intégration de services externes Optimisation performance / scalabilité Frontend React (v18+) + TypeScript State management (Redux / Zustand / Context) Performance UI (memoization, lazy loading, code splitting) React Testing Library / Jest Cloud / Infra Google Cloud Platform (Cloud Run, App Engine, Cloud Build) IAM, Secret Manager, VPC Observabilité (logs, monitoring, Sentry) Data / Architecture Systèmes de recommandation & scoring Data pipelines (product enrichment, catalogues produits) Graph-based rule engines (type network / incompatibilités) BigQuery analytics
CDI

Offre d'emploi
Senior Master Data Project Manager H/F (CDI)

Zenith Rh
Publiée le

Hauts-de-Seine, France
Dans un contexte de forte croissance et d'acquisitions internationales, nous recrutons un Senior Master Data Project Manager en CDI. Rattaché(e) à une équipe de 3 personnes, vous aurez pour mission de piloter les projets structurants liés aux données de référence tout en assurant un support business de haut niveau. Missions principales : Pilotage de projets : Cadrer, piloter et assurer la mise en place de projets Master Data complexes (intégration d'acquisitions, harmonisation de flux). Expertise SAP MDM : Garantir l'intégrité et la qualité des données au sein de l'environnement SAP MDM. Support Business International : Accompagner l'ensemble des pays du groupe dans leurs problématiques de gestion de données. Amélioration continue : Identifier les axes d'optimisation des processus de maintenance et de gouvernance des données.
2503 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous