Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 485 résultats.
Freelance
CDI

Offre d'emploi
Développeur Java/Data confirmé

VISIAN
Publiée le
Java
Mongodb

1 an
40k-45k €
290-410 €
Paris, France
Descriptif du poste Un groupe bancaire la création d'un service de reporting transverse pour sa division Monétique. Ce service est un asset important de la stratégie de la Monétique du groupe et doit permettre de fédérer et centraliser l'ensemble des reporting de type fichier, actuellement produits par différents systèmes et de les mettre à disposition sous différentes formes, via différents canaux. C'est dans ce contexte que les équipes IT recherchent un développeur Java/Data confirmé, qui saura participer au développement et à l'implémentation de ce service de Reporting, qui devra assurer le traitement de gros volumes de données pour générer des reporting de manière fiable et résiliente. La mission consistera à intégrer l'équipe agile en place pour participer à l'implémentation des reportings clients et des services associés avec le tech lead et ses coéquipiers, en collaboration avec les équipes du Socle Data de la monétique, mais aussi celles du portail client. Environnement technologique Évolution dans un environnement technologique récent : Java, API REST, PostgreSQL, ExaCC, Kafka, Cloud (Docker, Kubernetes), GitLab, etc.
Freelance
CDD

Offre d'emploi
Product Owner /Chef de projet SailPoint IIQ - Expert (>10 ans)

SMARTPOINT
Publiée le
sailpoint

3 mois
70k-75k €
550-600 €
Île-de-France, France
Le Product Owner SailPoint IIQ H/F aura une double responsabilité : - Piloter la vision produit : garantir l’évolution cohérente de la solution SailPoint IIQ, en lien avec la roadmap GAIA et les enjeux de conformité (NIS2, ISO 27001, RGPD). - Coordonner les projets de raccordement clients : assurer la bonne intégration fonctionnelle des applications cibles et sources dans le produit, en collaboration avec les équipes techniques et les représentants métiers. -Participer activement aux raccordements clients : cadrage fonctionnel, suivi des ateliers, gestion des dépendances et validation des spécifications. -Recueillir et formaliser les besoins métiers et réglementaires. -Prioriser et gérer le backlog produit (vision, user stories, critères d’acceptation). -Assurer la cohérence des évolutions avec la roadmap GAIA. -Animer les cérémonies Agile : daily, sprint planning, review, rétrospective. -Coordonner avec le Tech Lead IIQ, le Test Lead et les équipes MCO. -Contribuer à la documentation fonctionnelle (CI, fiches processus IAM). -Participer aux phases de recette fonctionnelle et de mise en production. -Reporter l’avancement auprès du Responsable d’Activité et du Management GAIA.
CDI

Offre d'emploi
Data Engineer & API Automation (H/F)

Link Consulting
Publiée le

50k-60k €
Montaigu-Vendée, Pays de la Loire
Notre client est un groupe industriel européen spécialisé dans la fabrication de compléments alimentaires, présent sur plusieurs sites en France, Belgique, Italie et Pays-Bas. Acteur engagé à l'intersection de la santé et du bien-être, il accélère aujourd'hui la structuration et la modernisation de son système d'information. Dans ce cadre de transformation, la DSI renforce son équipe avec un profil Data & Integration Engineer — rôle transverse et stratégique, au cœur de la fiabilisation des données, de l'intégration applicative et de l'automatisation des processus. Vos missions : ? Data Engineering & Qualité des données (cœur du poste, ~70%) * Concevoir, développer et maintenir des pipelines ETL / ELT fiables et industrialisés * Assurer les transformations, validations et migrations de données dans le cadre des projets ERP * Mettre en œuvre les mécanismes de qualité : contrôles, règles de gestion, historisation, traçabilité * Garantir l'intégrité, l'unicité et la cohérence des référentiels de données (MDM / PIM) * Travailler sur des modèles relationnels et analytiques (étoile, snowflake) * Contribuer au dictionnaire de données et à la documentation fonctionnelle et technique ? Intégration & Interopérabilité (~15%) * Concevoir et opérer les flux inter-applications via des solutions EAI / iPaaS (n8n, Boomi ou équivalent) * Maintenir le catalogue de flux (SFTP, API REST, GraphQL) et en assurer la documentation * Tester et déboguer les API avec des outils dédiés (Postman ou équivalent) ? APIs & Services Data pour les métiers (~10%) * Exposer des API et services data sécurisés pour faciliter l'accès aux données d'entreprise * Permettre aux équipes de construire des POC, prototypes et cas d'usage IA rapidement * Veiller à la gouvernance, à la sécurité et à la traçabilité des accès aux données ? Automatisation & IA (~5%) * Développer ou intégrer des automatisations via scripts, workflows EAI ou solutions low-code / RPA * Contribuer à l'intégration de cas d'usage IA et aider à industrialiser les prototypes métiers Les compétences techniques * * SQL avancé — indispensable (transformations complexes, optimisation, gouvernance) * Solides bases en Data Engineering : pipelines, ETL/ELT, qualité et modélisation des données * Maîtrise des API REST ; GraphQL appréciée * Pratique de Git et sensibilité aux principes DevOps * Expérience ou forte appétence pour Go, Python ou Node.js * Familiarité avec les environnements cloud — idéalement Microsoft Azure (Functions, App Services, Logic Apps) * Connaissance ou intérêt pour les outils EAI / automatisation (n8n, Boomi ou équivalents) * Sensibilité aux enjeux d'urbanisation du SI et de gouvernance des données
Freelance

Mission freelance
Chef de Projet ITSM / Ivanti

SKILL EXPERT
Publiée le
CMDB
GxP
ITIL v3

1 an
500-550 €
Hauts-de-Seine, France
Descriptif de la mission Notre Client recherche pour cette mission un Chef de Projet ITSM / Ivanti Objectifs de la Mission: - Piloter l’implémentation de la solution Ivanti ITSM dans le respect des normes et exigences GxP - Reconcevoir les processus ITSM selon les bonnes pratiques ITIL, intégrant les obligations de traçabilité, documentation, auditabilité et validation - Déployer les modules prioritaires : incidents, demandes, changements, problèmes, puis l’asset management - Préparer le socle pour l’implémentation progressive d’une CMDB - Accompagner le changement et assurer la conformité continue du système dans le cadre du cycle de vie des applications GxP
Freelance

Mission freelance
DBA (PostgreSQL & Oracle & Linux)-(h/f)

emagine Consulting SARL
Publiée le

12 mois
400-550 €
79000, Niort, Nouvelle-Aquitaine
Ce poste propose de gérer et d'optimiser des bases de données, en mettant principalement l'accent sur Oracle et PostgreSQL , au sein d'une équipe soudée. L'objectif principal est d'assurer la disponibilité et la résilience des données dans un environnement à forte composante Linux. Responsabilités : Expertise N2 & N3 et accompagnement des utilisateurs Traitement des incidents N2 & N3 en respectant les SLA Assurer la disponibilité, l'intégrité et la résilience des données Gérer le MCO (Maintien en Condition Opérationnelle) continu et évolutif Participer aux choix d'architecture Automatiser les tâches manuelles utilisant Ansible, Python et shell Linux Compétences : PostgreSQL Oracle Compétences avancées en UNIX / LINUX Niveau avancé de SQL Bon à avoir : Compétences élémentaires en SQL Server Compétences élémentaires en MySQL Compétences élémentaires en ANSIBLE Autres Détails : Lieu : Niort Télétravail : 2 jours par semaine, présence complète requise lors du 1re mois.
Freelance

Mission freelance
Architecte IA (spécialité RAG & web Sémantique)

SILKHOM
Publiée le
Large Language Model (LLM)
Natural Language Processing (NLP)
RAG

3 mois
Nantes, Pays de la Loire
Mission Vous interviendrez sur un projet stratégique de structuration de la connaissance métier , dont les principaux objectifs sont : Concevoir et structurer des ontologies métier robustes . Définir une architecture sémantique permettant d’alimenter et fiabiliser des LLM via des graphes de connaissances. Apporter une expertise critique et stratégique sur les approches hybrides (symbolique + génératif). Transformer des enjeux métiers complexes en POC pertinents et structurés . Alimenter, structurer et fiabiliser les chaînes de connaissance au service d’applications IA explicables. Optimiser l'efficience des modèles (maîtrise des coûts/tokens) au sein d'un environnement souverain. L’IA générative (LLM, RAG, GraphRAG, modèles souverains) est intégrée en surcouche dans une architecture de connaissance maîtrisée (RDF / OWL / SPARQL).
Freelance

Mission freelance
Data Analyst confirmé Powerbi, SQL, Python Nantes/st

WorldWide People
Publiée le
Data analysis

12 mois
320-350 €
Nantes, Pays de la Loire
Data Analyst confirmé Powerbi, SQL, Python Nantes Maîtrise des outils de gestion de données (ex : SQL, Excel avancé, Python ou R…). • Connaissance des outils de visualisation (ex : Power BI, Tableau, …). • Compétences en statistiques et en modélisation de données. 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Powerbi, SQL, Python Prestation Data Analyst confirmé (Min 3 ans exp sur la fonction) Tâches : • apporte un appui analytique à la conduite d’exploration et à l’analyse complexe de données Métiers permettant de fournir des indicateurs concrets. • identifie les données les plus intéressantes et les rends exploitables (structuration, normalisation, documentation) • assure la qualité et la fiabilité de ces données. • dégage des logiques de génération d’indicateurs pour les Métiers. • dégage des tendances en utilisant ses compétences statistiques. • conçoit les tableaux de bord nécessaires à la restitution des différents indicateurs sous la forme de Data visualisation. Compétences Technique : • Maîtrise des outils de gestion de données (ex : SQL, Excel avancé, Python ou R…). • Connaissance des outils de visualisation (ex : Power BI, Tableau, …). • Compétences en statistiques et en modélisation de données.
CDI
Freelance

Offre d'emploi
MLOps/LLMOps - Lille (Hybride)

KUBE Partners S.L. / Pixie Services
Publiée le
CI/CD
Docker
FastAPI

1 an
40k-55k €
400-500 €
Lille, Hauts-de-France
🧠 Intitulé du poste Machine Learning Engineer – MLOps / IA / GCP 🎯 Mission principale Assurer l’ industrialisation, le déploiement et l’exploitation en production de solutions de Machine Learning , dans un environnement cloud (Google Cloud Platform), en intégrant des pratiques avancées de MLOps, CI/CD et data engineering . 🚀 Responsabilités clés Déployer et maintenir des applications ML en production Concevoir et orchestrer des pipelines de données Automatiser les déploiements ML Développer des solutions de monitoring et observabilité des modèles Participer à l’ intégration des modèles ML dans les produits digitaux Collaborer avec les data scientist pour transformer les cas d’usage en solutions industrialisées, scalables et robustes Contribuer à la stratégie ML et à la roadmap technique Promouvoir les bonnes pratiques MLOps et software engineering Participer au coaching et mentoring des équipes 🛠️ Compétences techniques requises (impératives) ☁️ GCP 🐍 Python +++ 🤖 Machine Learning / IA ⚙️ MLOps/LLM
Freelance

Mission freelance
FREELANCE – Lead Analytics (H/F)

Jane Hope
Publiée le
Azure Data Factory
Azure Synapse
DAX

6 mois
450-550 €
Lille, Hauts-de-France
Notre client, basé à Lille (59), est à la recherche d’un Lead Analytics (H/F) freelance pour être le référent technique et le manager de proximité de la verticale Analytics au sein du département IA & Data. MISSIONS Vous vous placez au cœur de la chaine de valeur analytique : vous produisez, structurez, accompagnez la montée en compétences des équipes et de la plateforme data. Objectifs court terme : · Prendre en main l'équipe et établir une relation de confiance avec les Data Analysts dans les 3 zones géographiques · Auditer l'état du portefeuille analytique existant (rapports, dashboards, modèles de données) et comprendre les priorités · Livrer des cas d'usage analytiques à fort impact pour démontrer la valeur de la verticale. Objectifs long terme : · Contribuer à la feuille de route analytique alignée sur les priorités business et la stratégie Data & AI · Faire monter en maturité l'équipe sur les pratiques avancées d'analyse et l'usage de Microsoft Fabric / Power BI · Développer un modèle de self-service analytics fiable, gouverné et scalable pour les métiers · Établir un cadre de mesure de la valeur créée par la verticale (adoption, qualité, impact business) Responsabilités techniques : · Concevoir, développer et maintenir des modèles sémantiques et dashboards Power BI complexes · Produire des analyses et des requêtes avancées pour répondre aux questions business stratégiques · Assurer la qualité et la cohérence des données analytiques exposées aux métiers · Documenter les logiques de calcul, les sources et les définitions de métriques · Réaliser des revues de code et du pair-programming avec les Data Analysts de l'équipe Responsabilité managériale : · Animer l'équipe d’environ 7 Data Analysts répartis en Europe, Amérique du Nord et Russie · Conduire les entretiens individuels, fixer les objectifs et accompagner le développement professionnel · Piloter le cycle d'évaluation annuelle de l'équipe (performance, développement, plan de progression) · Assurer la montée en compétence des équipes sur les outils et pratiques analytiques (Microsoft Fabric, Power BI, DAX) · Gérer le budget de la verticale Analytics et en assurer le suivi · Gérer la relation avec les fournisseurs et partenaires externes liés aux outils et services analytiques · Représenter la verticale Analytics dans les instances de gouvernance du département AI & Data · Coordonner avec les autres verticales (Data Platform, Data Delivery, Data Governance) pour fluidifier les livraisons ENVIRONNEMENT TECHNIQUE · Microsoft Fabric : PowerBI, Lakehouse, Onelake · DAX, Power Query · SQL · Azure Data : Azure Data Lake, Synapse
Freelance

Mission freelance
Data Engineer Senior – Databricks / AWS / Airflow (Core Data Platform)

CHOURAK CONSULTING
Publiée le
Apache Airflow
AWS Cloud
CI/CD

3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe Data stratégique au sein d’un acteur international, avec des enjeux forts autour de la performance financière et de la fiabilité des données RH & Finance . 🎯 Contexte de la mission Vous intégrerez une équipe Core Data Product composée d’un Product Manager et de plusieurs Data Engineers. La Data est au cœur des décisions stratégiques. L’équipe est actuellement engagée dans une revue globale de son architecture et de sa modélisation , avec un objectif clair : moderniser la plateforme et transformer la stack legacy vers les nouveaux standards Data Platform. ⚙️ Missions principales Concevoir, construire et maintenir des pipelines et infrastructures data robustes et performantes . Optimiser l’architecture et la modélisation des flux. Participer à la transformation vers les nouveaux standards de la Data Platform. Garantir la qualité, la fiabilité et la gouvernance des données (Finance & HR). Assurer un RUN de qualité selon le principe “You build it, you run it”. Promouvoir les bonnes pratiques : CI/CD, revue de code, qualité du code . Garantir la sécurité et la conformité des données (RGPD). Évoluer en environnement Agile au sein d’une équipe internationale (anglais quotidien).
Freelance

Mission freelance
QA Analyst Integration (H/F)

ADSearch
Publiée le
Business Analyst
Cash Management
IA

3 mois
La Défense, Île-de-France
Objectifs et livrables En tant qu’ QA Analyst , vous serez responsable de garantir l’intégration fluide des différents composants et systèmes logiciels. Vous travaillerez en étroite collaboration avec les équipes de développement, les Train Managers, les chefs de projet, les Business Analysts et d’autres parties prenantes afin d’identifier les problèmes d’intégration et d’assurer la qualité et la fiabilité de nos produits logiciels. Responsabilités principalesPlanification des tests Élaborer des plans de test et des stratégies complètes pour les tests d’intégration. Définir les objectifs, le périmètre et les critères de réussite des tests. Identifier et prioriser les cas de test en fonction des risques et des impacts. Exécution des tests Exécuter des tests d’intégration pour valider l’interaction entre différents modules logiciels. Réaliser des tests manuels et automatisés afin d’assurer une couverture complète. Simuler des scénarios réels pour tester le comportement du système dans diverses conditions. Gestion des anomalies Identifier, documenter et suivre les anomalies à l’aide d’outils de gestion des bugs. Collaborer avec les équipes de développement pour reproduire et résoudre les incidents. Vérifier les correctifs et effectuer des tests de régression afin de garantir la résolution des problèmes. Automatisation Mettre en œuvre et maintenir des tests d’intégration automatisés à l’aide des outils internes disponibles. Améliorer en continu la couverture et l’efficacité de l’automatisation. Collaboration Travailler étroitement avec les équipes de développement pour comprendre les points d’intégration et les dépendances. Participer aux revues de conception et de code en apportant une perspective QA. Communiquer efficacement avec les Product Managers, développeurs et autres parties prenantes. Reporting Fournir des rapports de test détaillés et des indicateurs aux parties prenantes. Suivre et communiquer l’avancement, la couverture et les résultats des tests. Signaler en temps opportun les risques et problématiques au management. Amélioration continue Améliorer continuellement les processus et méthodologies de test. Se tenir informé des meilleures pratiques du secteur et des technologies émergentes. Encadrer les ingénieurs QA juniors et partager les connaissances au sein de l’équipe.
CDI

Offre d'emploi
Data Engineer | Databricks

Hexateam
Publiée le
AWS Cloud
Databricks
Python

Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Freelance
CDI

Offre d'emploi
Ingénieur Support Applicatif (H/F)

SAS GEMINI
Publiée le
Linux
SQL
Windows Server

3 ans
Île-de-France, France
L'un de nos clients recherche un ingénieur support Applicatif pour l'une de ses missions. Le périmètre est en forte évolution et couvre des applications déployées à l’international, avec des équipes de support réparties sur plusieurs zones géographiques. L’équipe assure le support applicatif, la coordination avec les métiers et le respect des processus opérationnels, dans un contexte exigeant en termes de disponibilité, de sécurité et de conformité. Missions principales: Vous intervenez sur les activités suivantes : Assurer le support applicatif de niveau 1 et 2 sur le périmètre confié Suivre le bon fonctionnement des applications, des flux et des traitements Analyser les incidents, anomalies et dysfonctionnements jusqu’à leur résolution Gérer et suivre les tickets (incidents, problèmes, demandes) Coordonner les interventions avec les équipes de production, d’exploitation et les parties prenantes métiers Proposer et documenter des solutions correctives et évolutives Suivre les remédiations de sécurité et les montées de version liées aux obsolescences Participer aux tests de performance, aux travaux d’optimisation et à l’amélioration continue Rédiger et maintenir la documentation technique et support Environnement technique: Systèmes : Windows Server, Linux (Red Hat) Conteneurisation : Kubernetes Bases de données : SQL Server, PostgreSQL Scripting / développement : SQL, Shell, Java Ordonnancement : Control-M
CDI
Freelance

Offre d'emploi
Ingénieur(e) de production applicative

HN SERVICES
Publiée le
Administration linux
Administration Windows
Apache

1 an
48k-53k €
380-400 €
31100, Toulouse, Occitanie
HN Recrute un(e) Ingénieur(e) de Production Applicative ! Vous êtes passionné(e) par l’exploitation et la mise en production d’applications, et vous souhaitez évoluer dans un environnement technique stimulant et collaboratif ? Rejoignez notre équipe ! 📍 Localisation : Toulouse avec 3 jours de télétravail 🕒 Type de contrat : CDI 🧭 Expérience : 5 ans minimum 💰 Rémunération : entre 48k - 53k brut annuel, selon profil et expérience 🗓 Disponibilité : entre aujourd’hui et 1 mois 🎯 Vos missions principales : Assurer le déploiement, l’exploitation et la supervision des applications en production Administrer et maintenir les environnements Windows et Linux Gérer et optimiser les chaînes applicatives via un ordonnanceur ( VTOM ou équivalent) Mettre en place et exploiter des outils de supervision ( Zabbix ou équivalent) Administrer et configurer des serveurs applicatifs et web ( IIS, Apache ) Gérer les flux applicatifs via un outil de transfert de fichiers ( CFT ou équivalent) Automatiser et industrialiser les processus via des scripts (Shell, PowerShell, Python, …) Collaborer étroitement avec les équipes projet et développement en méthodologie Agile
Freelance

Mission freelance
Développeur Talend

SKILL EXPERT
Publiée le
Apache Kafka
API REST
Oracle

1 an
450-500 €
Hauts-de-Seine, France
Descriptif de la mission Notre client recherche un Développeur Talend afin d'intégrer ses équipes. Lors de cette mission votre collaborateur devra effectuer les tâches suivantes: - Analyser les besoins métiers et techniques - Rédiger les spécifications techniques - Concevoir et développer des jobs sous Talend Data Integration - Développer des flux temps réel via Apache Kafka - Développer et consommer des APIs REST / SOAP - Réaliser les tests unitaires et d’intégration - Optimiser les performances des traitements - Assurer la maintenance corrective et évolutive - Documenter les développements - Participer aux mises en production
Alternance
CDI
Freelance

Offre d'emploi
Ingénieur DevOps F/H

AIS
Publiée le
DevOps

1 mois
40k-48k €
240-480 €
Nantes, Pays de la Loire
Vous serez intégré(e) aux équipes d'un de nos clients grands comptes, dans un environnement de haute disponibilité et en contexte international. Vos missions seront les suivantes : - Prendre la responsabilité de bout en bout des environnements bases de données (exploitation, performance, disponibilité, sécurité) - Diagnostiquer et résoudre des incidents complexes et conduire des améliorations durables - Industrialiser, automatiser (scripts, monitoring, sauvegarde/restauration) - Jouer un rôle de référent technique auprès des équipes développement/architecture, en accompagnant l'évolution vers le Cloud, les architectures modernes et l'Infrastructure as Code. Environnement technique : - Microsoft SQL Server, PostgreSQL et/ou Oracle Database. - Elasticsearch - Teradata - Scripting (PowerShell, Bash, Python ou équivalent) - Technologies Cloud (Azure, AWS, OCI)
4485 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous