Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 686 résultats.
CDI
Freelance

Offre d'emploi
Développeur Full Stack H/F

ASTERIA
Publiée le
Angular
Data Lake
Data Warehouse

6 mois
Monaco
Nous recherchons, pour l'un de nos Clients basés sur Monaco, un Développeur Full Stack H/F. VOTRE MISSION : Notre Client recherche un Développeur Full Stack H/F capable d’intervenir sur l’ensemble de la chaîne applicative, de l’interface utilisateur jusqu’aux services backend, dans un environnement cloud natif et containerisé permettant de valoriser des volumes de données complexes. Il devra concevoir et développer des applications intégrant des interfaces utilisateurs modernes et réactives qui s'appuieront sur des API performantes et scalables pour des cas d'usage Data/IA. Il travaillera en étroite collaboration avec les équipes data/IA pour proposer des solutions innovantes et performantes. Il participera également à l'optimisation des flux de travail de données (Data Pipelines Airflow) en collaboration avec l'équipe Data Engineering. Missions principales : Participer à l’analyse des besoins avec le chef de projet et les parties prenantes (UX/UI, métiers) Concevoir, développer et déployer des applications et chaînes de traitements autour de la Data et l'IA Rédiger et maintenir la documentation technique et fonctionnelle Réaliser les tests unitaires, d’intégration et fonctionnels Mettre en place et maintenir des pipelines CI/CD Collaborer étroitement avec les équipes Data & IA et plateforme Assurer le respect des critères qualité, délais, coûts et satisfaction utilisateur Participer aux revues de code et aux bonnes pratiques de développement Contribuer à l’amélioration continue des processus et outils de développement Veiller à la sécurité des applications et à la conformité des données personnelles
CDI
Freelance

Offre d'emploi
Ingénieur DevSecOps - (H/F)

SWING-ONE
Publiée le
Ansible
AWS Cloud
CI/CD

6 mois
Île-de-France, France
CONTEXTE DE LA MISSION : Dans le cadre du renforcement de la stratégie de sécurité applicative et cloud, nous recherchons pour notre client Grand-Compte un Ingénieur DevSecOps pour intégrer la sécurité au cœur de leur processus DevOps. MISSIONS PRINCIPALES : Intégrer les outils de sécurité dans les pipelines CI/CD Automatiser les analyses de vulnérabilités (SAST, DAST, SCA) Sécuriser les environnements cloud (AWS, GCP) et on-premise Participer aux audits et garantir la conformité (ISO 27001, NIST…) Collaborer avec les équipes Dev pour optimiser les processus de développement Travailler étroitement avec les équipes Ops pour assurer disponibilité, performance et fiabilité Mettre en place des outils de monitoring et de détection d’intrusion Participer activement à la gestion des incidents de sécurité
Freelance

Mission freelance
Ingénieur de production aws / terraform / cicd

ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud
CI/CD
Production

3 ans
400-630 €
Paris, France
CONTEXTE Notre client est garant du bon fonctionnement des solutions billettiques. C’est dans ce contexte que le service ESI (Exploitation du Système d’Informations), au sein de la Direction Exploitation et Infrastructure, s’assure du maintien en condition opérationnelle et des activités en Production relatives à l’ensemble des applications du SI. Cela implique notamment de garantir la disponibilité des systèmes pour les équipes internes, les fournisseurs et les usagers. OBJECTIFS ATTENDUS Rattaché(e) au responsable du service ESI, vous serez polyvalent(e) sur l’ensemble des activités, avec une mission de référence sur l’évolution et le maintien de l’architecture technique et du socle technique. Vous interviendrez au sein de l’équipe afin de : • Intervenir sur les évènements de Production (incidents, demandes, maintien du SI) • Exploiter des plateformes hébergées dans le Cloud AWS • Garantir des mises en production via l’infrastructure As Code • Contribuer aux projets de mise en place de nouvelles solutions et fonctionnalités et de leur évolution
Freelance
CDI

Offre d'emploi
Data Engineer Streaming

KLETA
Publiée le
Apache Kafka
Apache Spark

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Streaming / Real-Time pour concevoir, optimiser et industrialiser des plateformes de traitement de données en temps réel. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines événementiels, optimisation des traitements stream, passage vers des architectures plus scalables et résilientes) et guiderez leur mise en œuvre avec Kafka, Flink, Spark Streaming ou équivalents. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation en temps réel, de l’amélioration des performances et de l’intégration de mécanismes de tolérance aux pannes et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de streaming et d’event-driven architecture. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance

Mission freelance
Analyste Support BI & Cloud Solutions (N2)

Nicholson SAS
Publiée le
Azure Data Factory
Databricks
Gouvernance, gestion des risques et conformité (GRC)

10 mois
400 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Secteur : Industrie / Excellence Opérationnelle Localisation : Clermont-Ferrand (Rythme : 3 jours/semaine sur site) Démarrage : ASAP Visibilité : Jusqu’au 15/02/2027 Le Challenge Au cœur d'un environnement Cloud moderne, votre mission consiste à garantir la fiabilité, la performance et la disponibilité critique des services BI. Véritable pivot entre la technique et les besoins métiers, vous assurez un support de niveau 2 sur des solutions de reporting et de traitement de données à forte valeur ajoutée. Vos Responsabilités Maintien en Condition Opérationnelle : Analyse et résolution d'incidents complexes (logs, erreurs de traitement, gestion des permissions). Interface Technico-Fonctionnelle : Traduire des problématiques techniques complexes en impacts métiers clairs pour les parties prenantes. Transition & Qualité : Participer aux phases de mise en exploitation (SDM, SLA) et assurer le suivi rigoureux des indicateurs de performance. Amélioration Continue : Identifier proactivement les points de fragilité, remonter les alertes et proposer des optimisations sur l'existant (IA, automatisation). Astreintes : Participation ponctuelle au dispositif d'astreinte (environ 1 semaine par mois). Stack Technique & Expertise Data Core : Maîtrise avancée du SQL et de Python orienté Data. Ecosystème Azure : Azure Data Factory, Azure Databricks et principes de gouvernance Cloud. Restitution : Expertise fonctionnelle sur Power BI (incluant les concepts de sécurité RLS). Data Science : Notions de base en Machine Learning pour accompagner les évolutions analytiques. Langue : Anglais courant obligatoire (contexte international). Profil Recherché Vous justifiez d'une expérience de 4 ans minimum sur un rôle similaire, mêlant rigueur technique et sens du service. Esprit d’Analyse : Capacité à synthétiser des informations complexes et à prioriser les urgences. Agilité Relationnelle : Vous interagissez avec aisance avec des profils variés (DevOps, Data Engineers, Métiers, Support L3). Curiosité : Un intérêt marqué pour les nouvelles technologies et l'IA pour faire évoluer votre périmètre. Conditions de la prestation TJM : 400 € Soft Skills clés : Autonomie, proactivité et excellente communication écrite/orale.
CDI

Offre d'emploi
Data Engineer F/H

VIVERIS
Publiée le

40k-45k €
Belgique
Contexte de la mission: Dans le cadre du développement de nos activités data et de la montée en puissance de nos plateformes analytiques, nous recherchons un Data Engineer pour concevoir, construire et optimiser les pipelines de données alimentant nos applications métiers, nos plateformes analytiques et nos modèles d'intelligence artificielle.Vous rejoindrez une équipe Data pluridisciplinaire (Data Engineers, Data Scientists, Data Analysts, Architectes) et interviendrez sur toute la chaîne de traitement de la donnée : ingestion, transformation, structuration, optimisation, industrialisation et monitoring. Vos responsabilités: Vous serez en charge de: - Concevoir, développer et maintenir des pipelines de données robustes (batch & streaming) - Industrialiser la collecte, la transformation et la mise à disposition des données (ETL/ELT) - Assurer la qualité, la fiabilité et la disponibilité des datasets critiques - Participer à la modélisation et à la structuration des données (Data Lake, Data Warehouse) - Collaborer avec Data Scientists & Analysts pour fournir des données fiables et exploitables - Contribuer aux choix techniques et à l'évolution de l'architecture data - Documenter les pipelines, les schémas et les bonnes pratiques d'exploitation
Freelance

Mission freelance
Business Analyst DATA/ AMOA - Lyon (Banque /Assurance)

Atlas Connect
Publiée le
Agile Scrum
AMOA
BI

12 mois
450-500 €
Lyon, Auvergne-Rhône-Alpes
Au sein d’une équipe Agile , vous serez en charge de : 🔍 Analyse & cadrage Recueillir et analyser les besoins métiers Animer des ateliers avec les utilisateurs Rédiger les User Stories et contribuer au modèle de données / modèle d’entreprise Proposer des solutions fonctionnelles adaptées ⚙️ Conception & coordination Définir les solutions avec les développeurs Garantir la cohérence fonctionnelle et technique du SI Collaborer avec les architectes et urbanistes SI 📝 Documentation Rédiger et maintenir les spécifications fonctionnelles Produire les supports de présentation et comptes rendus 🧪 Tests & qualité Rédiger les cahiers de tests Réaliser les recettes fonctionnelles Qualifier les anomalies (recette, préproduction, production) Suivre les corrections jusqu’à livraison 🤝 Suivi Agile Participer aux rituels Agile (Daily, démo, etc.) Contribuer à l’amélioration continue 📦 Livrables attendus User Stories Spécifications fonctionnelles Modélisations de données Cahiers de tests Comptes rendus d’ateliers Rapports d’anomalies et suivi de correction
CDI

Offre d'emploi
Data Engineer (H/F)

Link Consulting
Publiée le
Big Data
Python
SQL

38k-40k €
Castelnaudary, Occitanie
Notre client, acteur majeur du secteur de la grande distribution, recherche son futur Data Engineer (H/F) pour son site basé dans l'Aude, à 45 minutes de Toulouse, dans le cadre du développement et de l’évolution de ses outils de pilotage. ### Vos missions Intégré à l’équipe informatique du client, vous devrez : * Centraliser et fiabiliser les données issues des outils métiers (logistique, commerce, marketing, qualité, finance). * Concevoir et déployer des architectures robustes pour collecter, structurer et exploiter des volumes importants de données. * Développer, automatiser et optimiser les flux et traitements de données, notamment depuis l’environnement SAP BusinessObjects via l’ETL BODS. * Garantir la performance, la disponibilité et la pérennité des infrastructures data. * Collaborer étroitement avec les équipes métiers et les Data Analysts afin de fournir des données fiables et exploitables pour la prise de décision. Les compétences techniques * Maîtrise des langages : Python, C/C++, Java, Perl. * Solide expérience des environnements UNIX, Linux, Solaris. * Bonne connaissance des bases de données et du SQL. * Compréhension globale des enjeux Big Data. * Atouts complémentaires : Access, VBA, Google Cloud Platform (GCP).
Freelance

Mission freelance
Data Scientist Python, Tensorflow Nantes/st

WorldWide People
Publiée le
Python

12 mois
350-370 €
Nantes, Pays de la Loire
Data Scientist Python, Tensorflow Nantes Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques. Prestation de Data Scientist Objectif : •Transformer des données brutes en informations exploitables grâce à des modèles statistiques avancés, des algorithmes de machine learning et des analyses prédictives. •Exploiter, analyser et évaluer la richesse de données, structurées ou non, pour établir des scénarios permettant de comprendre et anticiper de futurs leviers métiers ou opérationnels pour l’entreprise. •Identifier des tendances ou des corrélations cachées dans les données. •Créer des modèles prédictifs ou des solutions automatisées basées sur des algorithmes. •Aider à prendre des décisions stratégiques basées sur les données. Tâches : •Valorise les gisements de données. •Travaille sur des périmètres métiers ciblés (cas d’usage) pour explorer et exploiter des flux de données issus de la data platform ou d’autres sources (dans ce cas il évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du métier). •Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les données à consolider, modifier, rapatrier, externaliser, internaliser. •Intervient de façon plus intégrée en industrialisant ses réalisations dans la chaine technologique de la data platform et/ou les intègre dans le système d’information du métier. •Conçoit des modèles statistiques et/ou d’apprentissage automatisé. •Compare et évalue différents modèles ou méthodes de calcul et anticipe les avantages et inconvénients dans un environnement métier. •Assure la veille en recherche & innovation pour introduire de nouvelles approches d’analyse et de modélisation des données. Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques.
Freelance

Mission freelance
Solution Architect Senior (H/F)

Lùkla
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)

6 mois
France
Contexte de la mission : Dans le cadre du renforcement d’une équipe IT européenne, nous recherchons un Solution Architect Senior pour intervenir sur la conception et la mise en œuvre de solutions digitales. Vous évoluerez dans un environnement dynamique où les solutions doivent être livrées rapidement , tout en restant alignées avec des architectures globales en cours de construction. Vos missions : Recueillir et analyser les besoins métiers Traduire les besoins en solutions techniques concrètes Concevoir des architectures end-to-end adaptées et pragmatiques Choisir les technologies les plus pertinentes (simplicité, efficacité, rapidité) Produire une documentation claire (schémas, flux, décisions) Collaborer avec les équipes techniques (Dev, DevOps, Sécurité, PO, PM) Accompagner la mise en œuvre des solutions Garantir la scalabilité, performance et sécurité des architectures Identifier les risques et proposer des solutions adaptées Compétences requises : Solide expérience en architecture de solutions IT Bonne maîtrise des environnements : Cloud (AWS, Azure ou GCP) Développement applicatif Bases de données & réseaux Capacité à concevoir des solutions simples, efficaces et rapides à déployer Excellente capacité d’analyse et de résolution de problèmes Expérience en environnement Agile Bonne communication avec des interlocuteurs techniques et métiers Sens du pragmatisme et orientation résultats
Freelance

Mission freelance
QA Lead

Byrongroup
Publiée le
Data quality
ERP
KPI

1 an
400-500 €
Île-de-France, France
🎯 Vos missions : • Recueil et formalisation des besoins de test • Challenger pour anticiper les risques qualité • Pilotage des activités de tests : planifier, coordonner et exécuter les campagnes de tests (UAT, E2E...) • Concevoir et maintenir les référentiels de test (plans de test, cas de test, matrices de couverture) • Prioriser les scénarios • Définir les stratégies de validation de la qualité des données • Identifier et analyser les anomalies de données • Collaborer avec les équipes techniques pour la correction des écarts • Vérifier la fiabilité des échanges de données • Pilotage de la qualité et reporting
Freelance

Mission freelance
DevSecOps AWS - Lyon

Tenth Revolution Group
Publiée le
AWS Cloud

3 ans
100-500 €
Lyon, Auvergne-Rhône-Alpes
Le DevSecOps contribue à l’intégration de la sécurité au sein du cycle de développement logiciel, tout en pilotant et optimisant les pipelines CI/CD et les environnements techniques. Il intervient sur la mise en place, l’automatisation et la sécurisation des processus de développement, de déploiement et d’exploitation. Il assure également la supervision des plateformes, la gestion des incidents, l’amélioration continue et le soutien aux équipes projets. Ses responsabilités couvrent notamment : L’automatisation du cycle de vie applicatif et l’industrialisation des déploiements L’intégration de solutions de sécurité dans les pipelines CI/CD La gestion et l’évolution des infrastructures Cloud et On‑Premise Le monitoring, l’observabilité et la performance des systèmes Le support aux équipes Dev, Ops et Sécurité La contribution à la qualité, à la fiabilité et à la sécurité des produits numériques
Freelance

Mission freelance
DATA ENGINEER DDL ( profil habilitable)

Signe +
Publiée le
Python

12 mois
610 €
Issy-les-Moulineaux, Île-de-France
Contexte Ouverture d’une nouvelle entité chez le client. Le Data Engineer interviendra dans un environnement IA / Big Data avec forte dimension cloud et DevOps. Missions Identification et analyse des besoins Participation aux ateliers d’idéation Rédaction de documentations techniques détaillées Définition des spécifications projets IA Proposition de solutions algorithmiques adaptées Interaction avec les infrastructures data Intégration et maintenance de solutions d’IA Gestion d’environnements Big Data, cloud et on-premise Mise en place DevOps / DevSecOps / MLOps Implémentation de pipelines CI/CD Mise en place de dépôts de code Contribution à une culture agile et sécurisée Communication et partage Partage de connaissances au sein de l’entité Communication sur les avancées et retours d’expérience Accompagnement à la montée en compétence de l’équipe Compétences techniques attendues Développement : Python, SQL, Spark, Scala Frameworks ML : pandas, numpy, scikit-learn ETL / pipelines : Apache Nifi, Talend, Kafka Big Data / Cloud : S3, Hadoop, MapReduce Bases de données : PostgreSQL, MySQL, MongoDB, Cassandra DevOps / MLOps : Docker, Gitlab, Kubernetes Profil recherché Expérience confirmée en environnement Data / IA Forte capacité d’analyse et de structuration À l’aise dans un contexte de création d’entité
Freelance

Mission freelance
[LFR] Data Engineer TERADATA ET DATAVIZ, Sénior à Paris - 1456

ISUPPLIER
Publiée le

5 mois
300-405 €
Paris, France
Modélisation de données • Mode de chargement dans l’entrepôt (ETL) : BTEQ • Teradata, développements sous Teradata • Dataviz : Power BI et MSBI • CONTROL-M • Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) • SQL sur SGBD relationel, Shell • TPT – réalisation de scripts • Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea • Création de chaînes de déploiement DEVOPS • Mise en production de composants applicatifs avec livrables documentaires associés (DTA, feuille de route, ...) Sofskills : Sens du service. Bon relationnel et bonne communication écrite et orale. Ecoute. Esprit d'analyse et de synthèse. Capacité d'organisation et d'adaptation. Capacité à travailler en équipe. Autonomie.
Offre premium
Freelance

Mission freelance
CONSULTANT AI H/F

AXONE BY SYNAPSE
Publiée le
Agent IA
Azure AI
Copilot

3 mois
La Défense, Île-de-France
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée un Consultant IA H/F capable d’identifier, structurer et piloter des initiatives à forte valeur ajoutée autour de l’intelligence artificielle. Le rôle consiste à intervenir sur l’ensemble du cycle de vie des cas d’usage IA : cadrage, identification des opportunités, réalisation de POC et accompagnement à la décision. Le consultant agira comme un facilitateur entre les équipes métiers et la DSI, avec une forte dimension d’acculturation et de vulgarisation des technologies IA. Objectif et livrable: Cartographie des cas d’usage IA priorisés Dossiers de cadrage (KPI, risques, vision) POC IA fonctionnels et documentés Business cases et analyses de valeur Recommandations technologiques et de gouvernance Supports de formation et acculturation Compétences attendues: Maîtrise des technologies IA générative (LLM, NLP, agents) Expérience sur Azure AI, Copilot Studio, Dify, LangChain Capacité à concevoir et piloter des POC (low-code/no-code, notebooks) Bonne compréhension des architectures data (datalake, pipelines, gouvernance) Connaissances en sécurité, conformité et gestion des données Capacité à structurer des business cases et analyser le ROI Expérience: 5 à 10 ans en conseil IT/Data/IA avec expériences concrètes en POC IA Télétravail: Quasi full remote possible, avec déplacements ponctuels requis (La Défense, Nogent-sur-Seine, La Rochelle)
CDI

Offre d'emploi
Consultants MS BI Confirmés H/F

MGI Consultants
Publiée le
Azure Data Factory
Microsoft Power BI

Paris, France
Notre client, leader de la transformation urbaine bas carbone, est un groupe français présent sur l’ensemble des métiers de l’immobilier (logement et bureaux ; activités dans les énergies renouvelables, les Datacenters et l’investissement immobilier). Avec sa capacité à porter de grands projets mixtes, il s’impose comme le premier développeur immobilier des territoires en France. Au sein de la Direction des Systèmes d’Information, le Pôle Data recherche un Consultant Microsoft BI confirmé. Sa mission principale sera de prendre en charge les développements liés au projet de reporting pour l’activité énergies renouvelables. Objectifs de la mission Concevoir des modèles de données adaptés Créer et optimiser des bases de données et entrepôts de données (SQL Server principalement) Prendre en charge les développements de rapports Power BI Prendre en charge les développements de scripts SQL/Procédures Prendre en charge les développements des pipelines Azure Data Factory Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality) Être force de propositions sur les optimisations de traitement Rédaction de la documentation (spécifications techniques), recettes Gestion du code source via Microsoft Devops et déploiement CI/CD Préparation des livrables pour les mises en production
2686 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous