L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 670 résultats.
Mission freelance
Data Engineer (Projet de Migration MGTS)
HAYS France
Publiée le
Python
Snowflake
Stambia
3 ans
100-450 £GB
Lille, Hauts-de-France
Mission principale : Dans le cadre du build d’un projet de migration technique pour une de nos BUs du groupe (MGTS), nous recherchons un Data Engineer. Il travaillera principalement avec Elodie Madoux, cheffe de projet Data. Il devra être assez autonome, même si nos Tech Lead seront en supervision si besoin. Nous recherchons donc un profil ayant déjà quelques années d’expérience. Compétences clés recherchéesIntégration & ETL Lecture, compréhension et manipulation de flux de données Maîtrise opérationnelle de Talend Maîtrise de la solution Stambia / Semarchy Langages Excellente maîtrise du SQL Niveau intermédiaire en Python Environnement Data Bonne connaissance de Snowflake Visualisation (atout) Maîtrise de Tableau appréciée
Mission freelance
Consultant Senior / Manager IA – Mission freelance
Mon Consultant Indépendant
Publiée le
IA
12 mois
880-910 €
Monaco
Nous recherchons un Consultant Senior / Manager freelance en stratégie et transformation digitale disposant d’une expertise confirmée en intelligence artificielle. Le consultant interviendra notamment sur : Le cadrage stratégique et la structuration de trajectoires de transformation La priorisation d’initiatives digitales et de dispositifs IA La mise en place de cadres de gouvernance adaptés Le pilotage de projets jusqu’à leur mise en œuvre opérationnelle L’accompagnement du passage à l’échelle et de l’adoption Profil recherché : Expérience en cabinet de conseil Solide expérience en pilotage de projets de transformation Expérience concrète dans le déploiement et l’industrialisation de dispositifs IA Présence régulière sur site requise (au moins 3 jours) - Localisation en région PACA nécessaire.
Mission freelance
PO DATA - Expérience data clinique / santé impératif
Net technologie
Publiée le
Data governance
Data quality
1 an
France
Nous recherchons un consultant PO expérimenté sur des données cliniques en environnement international (fluent english). Vos missions : Intervenir sur des initiatives liées aux données opérationnelles cliniques en faisant le lien entre les équipes métiers, cliniques et data engineering. ❇️ Recueillir et formaliser les besoins métiers autour des données cliniques ❇️ Traduire les exigences fonctionnelles en spécifications data exploitables ❇️ Contribuer à la qualité, gouvernance et traçabilité des données ❇️ Animer des ateliers et coordonner les parties prenantes ❇️ Travailler en environnement Agile (Jira, Confluence)
Offre d'emploi
Scrum Master DevOps (H/F)
SMARTPOINT
Publiée le
Ansible
AWS Cloud
Docker
12 mois
40k-45k €
400-550 €
Île-de-France, France
Contexte Dans un environnement agile et fortement orienté DevOps, le Scrum Master DevOps accompagne une ou plusieurs équipes techniques dans l’adoption et l’amélioration continue des pratiques Agile (Scrum) et DevOps , afin d’optimiser la livraison de valeur, la qualité et la performance opérationnelle. Missions principales Animer les cérémonies Agile : Sprint planning, daily, review, rétrospective Accompagner l’équipe dans l’application du cadre Scrum et des pratiques DevOps Lever les obstacles (impediments) impactant la performance de l’équipe Favoriser la collaboration entre Développement, Ops, QA et Sécurité Accompagner la mise en place et l’amélioration des pipelines CI/CD Promouvoir l’automatisation, l’industrialisation et la culture DevOps Suivre et améliorer les indicateurs de performance (vélocité, lead time, incidents, disponibilité) Travailler en étroite collaboration avec le Product Owner et les équipes techniques
Mission freelance
Data Analyst
PARTENOR
Publiée le
Dataiku
Google Cloud Platform (GCP)
Gouvernance
1 an
Puteaux, Île-de-France
Notre client réalise une transformation de sa plateforme Data vers la Google Cloud Plateform avec l'adoption de Dataiku en outil de data préparation. Au sein de la direction Intelligence de la donnée, le département Data Management et Business Intelligence a pour objectif de réaliser sa propre transformation et d'accompagner les directions utilisatrices de GCP/Dataiku à exploiter la plateforme dans le cadre défini, de déployer la gouvernance associée et de l'ajuster dans une démarche d'amélioration continue. Nous recherchons un(e) Data analyst pour aider à accompagner cette transformation. Ces travaux mixent des aspects de pilotage, d'accompagnement au changement et de développements BI Data management, Accompagnement au changement, Data-préparation (Dataiku), plateforme GCP.
Mission freelance
DATA INGENIEUR STAMBIA DBT SNOWFLAKE
HAYS France
Publiée le
DBT
Semarchy
Snowflake
3 ans
100-400 £GB
Lille, Hauts-de-France
Missions principales Le/la Data Engineer interviendra sur un périmètre large comprenant notamment : 🔹 Ingénierie de données Conception, développement et optimisation de pipelines de données. Intégration et transformation de données via Stambia et DBT . Modélisation et alimentation d’entrepôts de données dans Snowflake . Mise en place de bonnes pratiques de développement (versioning, tests, CI/CD). 🔹 Industrialisation & performance Maintenance, optimisation et monitoring des jobs ETL/ELT. Amélioration continue des performances Snowflake et des modèles DBT. Renforcement de la qualité, de la fiabilité et de la documentation des flux. 🔹 Collaboration & expertise Travail en étroite collaboration avec les équipes Data, Finance et Supply. Analyse des besoins métiers et traduction en solutions techniques. Participation à la roadmap Data (évolutions, migrations, outils). 💼 Compétences techniques recherchéesCompétences indispensables Stambia (développement de mappings, process, intégration). DBT (modèles, tests, documentation, sources, exposures). Snowflake (modélisation, optimisation, SQL avancé). Maîtrise des concepts ETL/ELT, data modelling, gestion de la qualité. Compétences appréciées (nice-to-have) Tableau Software (lecture + compréhension des besoins côté viz). Streamlit (petites apps internes pour exposer des données). Connaissance de la Data Vault ou d’architectures modernes DataOps. Sensibilité aux environnements agiles. 👤 Profil recherché 3 à 5 ans d’expérience minimum en tant que Data Engineer. Capacité à être rapidement opérationnel·le sur des sujets variés. Bonne communication et autonomie. Volonté d’intervenir sur des problématiques Finance & Supply.
Mission freelance
LEAD DEV PYTHON (H/F)
Freelance.com
Publiée le
Agent IA
Mongodb
Python
6 mois
400-540 €
Île-de-France, France
Descriptif de mission – Lead Developer Python / IA Dans le cadre du développement d’outils d’automatisation basés sur l’intelligence artificielle (LLM et Machine Learning) , nous recherchons un Lead Developer Python Senior pour rejoindre une équipe projet travaillant en étroite collaboration avec les équipes métiers. L’objectif est de concevoir et faire évoluer des solutions techniques permettant d’automatiser certains processus métier. Plusieurs outils sont déjà en production et nécessitent des évolutions, tandis que de nouveaux services doivent être développés. Le projet s’inscrit dans un environnement technique moderne et nécessite une forte capacité à intervenir sur l’ensemble du cycle de développement, depuis le cadrage technique jusqu’à l’implémentation et la mise en production. Missions principales Participer au cadrage technique et à la conception des solutions Concevoir l’ architecture et le design logiciel des applications Développer des services backend en Python Mettre en place des API et des intégrations avec différents systèmes Développer des traitements asynchrones et des processus parallélisés Réaliser des revues de code et garantir les bonnes pratiques de développement Documenter les solutions techniques et assurer leur maintenabilité Travailler en étroite collaboration avec les équipes métiers dans une démarche itérative Environnement technique Python 3 FastAPI Pytest MongoDB Docker Linux LangSmith Gradio Profil recherché Lead Developer Python avec plus de 8 ans d’expérience Très bonne maîtrise du développement backend Python Expérience en design logiciel et architecture applicative Connaissance des patterns d’intégration d’entreprise Expérience dans le développement d’API et l’intégration de systèmes Des connaissances en IA / LLM / Machine Learning sont un plus Capacité à travailler en autonomie, avec rigueur et sens de l’écoute Informations complémentaires Démarrage : mars 2026 Durée : mission longue (plusieurs mois) Localisation : région parisienne
Offre d'emploi
Développeur Typescript
VISIAN
Publiée le
Big Data
TypeScript
User acceptance testing (UAT)
1 an
Paris, France
Contexte de la mission Dans le cadre du renforcement de ses dispositifs de Conformité, un de nos client recherche un Développeur TypeScript pour intervenir sur des applications construites au sein d'un écosystème de plateforme de données. La mission s'inscrit dans un environnement à forte criticité métier, notamment autour de la Détection de la Délinquance Financière, avec des enjeux liés à l'exploitation de la donnée, à la restitution d'informations sensibles et à l'amélioration des outils utilisés par les équipes conformité, contrôle et investigation. Le consultant participera au développement de solutions applicatives et de widgets métiers permettant de faciliter l'analyse, le pilotage et la visualisation de données en lien avec les dispositifs de surveillance et de détection.
Mission freelance
Administrateur Plateforme Data (Cloudera & Open Source)
VISIAN
Publiée le
Administration linux
Bash
Cloudera
1 an
400-470 €
Île-de-France, France
Contexte Dans le cadre du développement d’une plateforme Data & IA au sein d’un grand groupe du secteur financier , nous recherchons un Data Platform Engineer / Administrateur Data pour assurer l’administration, l’évolution et la fiabilité des infrastructures Data. Vous interviendrez sur des environnements Big Data basés sur l’écosystème Cloudera et Open Source , au sein d’équipes techniques et métiers. Missions Administration et exploitation des plateformes Data Administrer et maintenir les plateformes Big Data en condition opérationnelle Superviser les systèmes et assurer la maintenance corrective et évolutive Intervenir sur la résolution d’incidents complexes sur les plateformes Data Conception et gestion des flux de données Identifier les besoins métiers en matière de collecte et stockage de données Développer des solutions d’ingestion de données (API, pipelines) Concevoir des architectures de stockage robustes (Data Lake / Big Data) Automatiser les traitements via batchs et pipelines de données Valorisation et gouvernance des données Industrialiser les processus de transformation et de nettoyage des données Gérer des bases de données hétérogènes et multi-sources Garantir la conformité et la gouvernance des données Industrialisation Data Science / IA Industrialiser le déploiement de modèles statistiques et machine learning Mettre en place des mécanismes de validation et monitoring des modèles Assurer le suivi opérationnel des modèles intégrés aux applications Contribution aux projets Data Définir les spécifications techniques Assurer le reporting d’avancement auprès du pilotage projet Apporter un support technique aux équipes métiers et applicatives Le poste peut inclure des astreintes par rotation et une participation à la continuité de service des plateformes Data .
Offre d'emploi
Architecte Kafka
LEVUP
Publiée le
Apache Kafka
AWS Cloud
12 mois
Liège, Belgique
Dans le cadre de la conception et de l’évolution de plateformes applicatives et data orientées temps réel , nous recherchons un Architecte Kafka AWS capable d’intervenir de bout en bout (end-to-end / endzone) : de l’architecture backend et streaming jusqu’à l’intégration avec les applications frontend. Le poste s’inscrit dans des environnements cloud AWS à forts enjeux de performance, de scalabilité et d’intégration SI. Rôle & responsabilitésArchitecture globale (End-to-End) Concevoir l’ architecture applicative et data de bout en bout Garantir la cohérence entre : Frontend (Angular) Backend (.NET) Streaming & intégration (Kafka) Infrastructure AWS Être le référent architecture sur le périmètre fonctionnel et technique Kafka & intégration Concevoir et mettre en œuvre des architectures événementielles basées sur Apache Kafka Définir les patterns d’intégration : Event-driven Pub/Sub CDC (Change Data Capture) Mettre en place Kafka Connect, Schema Registry, MirrorMaker Accompagner les équipes sur la modélisation des événements et contrats de données Environnement AWS Déployer et opérer Kafka sur AWS (Amazon MSK ou équivalent) Concevoir l’architecture cloud : VPC, IAM, sécurité, réseaux EC2 / EKS selon les besoins Intégrer Kafka avec les services AWS (S3, Lambda, bases de données, etc.) Backend – .NET Concevoir des API et services backend en .NET Définir les standards d’architecture (clean architecture, microservices) Garantir performance, sécurité et maintenabilité Intégrer les flux Kafka côté backend Frontend – Angular Définir les principes d’architecture frontend Angular Assurer la bonne intégration avec les API et les flux temps réel Travailler sur l’expérience utilisateur dans des applications data-driven Qualité & gouvernance Mettre en place les bonnes pratiques : Sécurité Monitoring Logging Résilience Documenter les architectures Participer aux revues techniques et d’architecture Accompagner et guider les équipes de développement Compétences techniques requisesStreaming & intégration Apache Kafka (expert) Kafka Connect, Schema Registry Architectures event-driven Formats : JSON, Avro, Protobuf Cloud & DevOps AWS (très bonne maîtrise) Amazon MSK CI/CD Infrastructure as Code (Terraform, CloudFormation) Backend .NET / C# APIs REST Microservices Frontend Angular Intégration frontend / backend Notions UX appréciées Profil recherché Formation ingénieur ou équivalent Expérience confirmée en architecture end-to-end Solide expérience sur Kafka en production À l’aise dans des environnements complexes et multi-équipes Capacité à dialoguer aussi bien avec les développeurs que les métiers Atouts appréciés Expérience grands comptes Connaissances data (Spark, Flink, etc.) Certifications AWS / Kafka Sens du produit et de l’expérience utilisateur
Mission freelance
NetDevOps automatisation
Mindquest
Publiée le
Ansible
API REST
AWS Cloud
1 an
400-550 €
Saint-Denis, Île-de-France
Intégrer l’équipe NetDevOps afin de contribuer à l’automatisation des infrastructures réseau et à l’amélioration de l’efficacité opérationnelle. Automatisation réseau Développement de playbooks Ansible pour automatiser les configurations réseau. Administration et orchestration des déploiements via AWX . Développement de scripts Python pour automatiser les processus et intégrer des APIs réseau. Gestion des infrastructures Administration et optimisation de serveurs Linux hébergeant les outils de la plateforme. Gestion et maintenance des environnements techniques associés. Gestion d’inventaire et documentation Configuration et administration de Netbox (IPAM, inventaire des équipements, documentation). Intégration de Netbox avec les outils d’automatisation (Ansible, Python). Maintien de la cohérence entre inventaire logique et physique. Automatisation de la mise à jour des données d’inventaire. Monitoring et observabilité Mise en place de la collecte de logs et métriques via Vector . Création de dashboards Grafana pour le monitoring des infrastructures réseau. Mise en place d’alerting automatisé et reporting. Analyse des performances et optimisation continue. Industrialisation des opérations Consolidation des architectures d’automatisation réseau basées sur AWX et Ansible . Industrialisation des déploiements réseau (ACL, syslog, automatisations associées). Structuration des workflows d’exploitation automatisés. Contribution à la normalisation des pratiques réseau. Infrastructure et conteneurisation Déploiement d’applications sur AWS / EKS . Conteneurisation des outils NetDevOps avec Docker . Gestion d’environnements avec Docker-compose . Automatisation des déploiements et mise à l’échelle des solutions. Accompagnement des équipes Support aux équipes d’exploitation dans l’appropriation des outils et des processus. Participation à l’évolution de la plateforme vers des mécanismes d’exploitation avancée basés sur l’analyse des données collectées .
Offre d'emploi
Data Analyst
Atlanse
Publiée le
Dremio
ETL (Extract-transform-load)
SQL
3 ans
45k-55k €
400-500 €
Issy-les-Moulineaux, Île-de-France
Dans le cadre d’un projet de simplification et d’optimisation des données, vous intervenez sur l’analyse et l’amélioration des flux de données transactionnelles et géographiques. Vous analysez l’usage des données, identifiez les incohérences et contribuez à la mise en place d’un cadre de gouvernance des données. Votre rôle Analyse des flux et structures de données Analyser la structure des flux de données transactionnelles, les données échangées et leurs usages Identifier les incohérences, redondances ou données inutilisées Proposer des simplifications et optimisations des flux de données Amélioration de la qualité et optimisation des données Réaliser des analyses détaillées de jeux de données pour détecter anomalies, incohérences et problèmes structurels Mettre en place des indicateurs et contrôles de qualité des données pour suivre et piloter les améliorations Contribuer aux actions de nettoyage et de fiabilisation des modèles et structures de données Documentation et structuration des référentiels de données Documenter les flux transactionnels : modèles de données, règles métier, cas d’usage et guidelines Mettre à jour et clarifier le Data Catalog, les modèles de données et les spécifications de flux Définir et formaliser les règles d’utilisation et d’alimentation des données Gouvernance et collaboration Partager les résultats d’analyse avec les parties prenantes Accompagner les équipes dans la définition de plans d’action pour corriger les anomalies détectées Contribuer à la mise en place du cadre de gouvernance des données : rôles, responsabilités, règles de gestion et suivi de la qualité des données Participer aux routines de gouvernance et à l’analyse des impacts IT liés aux évolutions des données
Offre d'emploi
Architecte Big Data
KLETA
Publiée le
Apache Kafka
Apache Spark
ELK
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Big Data pour définir et piloter l’évolution des plateformes de données à grande échelle. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures distribuées en intégrant des technologies telles que Hadoop, Spark, Kafka, Iceberg/Delta Lake ou équivalents, ainsi que des principes modernes de lakehouse et de data mesh lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance et de sécurité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques Big Data et data engineering.
Mission freelance
Développeur Front Angular (H/F)
Insitoo Freelances
Publiée le
Angular
AWS Cloud
2 ans
400-520 €
Lyon, Auvergne-Rhône-Alpes
Les missions attendues par le Développeur Front Angular (H/F) : Descriptif de la mission : Activités de développement (front) Build & Run, de la conception à la réalisation jusqu’au maintien en conditions opérationnelles : Analyse et conception : rédaction des documentations techniques, participation aux ateliers de conception Développement de la solution : Concevoir, développer, tester et déployer la solution Tests et qualité au fil des sprints Rituels Agile (Daily, Planning, Review, Rétrospective…) Déploiement et Maintenance : assurer la correction des bugs et assurer la disponibilité du service Assistance lors de la mise à niveau des tests automatisés Playwright Veille technologique et amélioration continue : Proposition d’évolutions techniques ou d’innovations utiles à la valeur produit, capitalisation sur les retours d’expérience pour améliorer en continu les pratiques de l’équipe Accompagnement techniquement les développeurs : revue de code, pair programming, aide à la montée en compétences. Angular / HighCharts / Jira / Confluence Obligatoire : AWS Certified Cloud Practitioner / AWS Certified Cloud Developer
Mission freelance
Chef de Projet Data / Flux (F/H)
CELAD
Publiée le
1 an
450-500 €
Lyon, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail / semaine - Lyon - Expérience de 5 ans minimum Envie de piloter des projets stratégiques autour de la data et des plateformes SI ? Dans le cadre de l’évolution de ses plateformes, l’un de nos clients grands comptes renforce son centre de solution métier dédié aux Flux Data et recherche un.e Chef.fe de Projet pour piloter plusieurs chantiers structurants. Vous interviendrez dans un environnement technique riche, en coordination avec les équipes SI, les DevSecOps et les différentes parties prenantes. Voici un aperçu détaillé de vos missions : - Piloter des projets de migration d’outils collaboratifs vers des environnements Cloud - Superviser le déploiement d’une plateforme d’API Management - Identifier les différents chantiers et sous-chantiers liés aux projets - Construire la timeline projet et les jalons clés - Suivre l’avancement des travaux et gérer les incidents éventuels - Coordonner les phases de recette et TNR avec les équipes métiers - Contribuer à la définition des stratégies de tests - Assurer la communication projet auprès des équipes SI - Suivre le budget, les charges et les délais - Identifier et gérer les risques et retards potentiels - Piloter les études autour des plateformes ETL, Bus de Services et solutions d’autorisation - Accompagner les ESN et experts techniques en charge des études - Organiser les ateliers de recueil des besoins et de restitution - Superviser la production et la validation des livrables - Challenger les études produites et proposer des axes d’amélioration - Assurer la coordination avec les équipes DevSecOps et les différentes parties prenantes
Offre d'emploi
Tech Lead IA (F/H)
CELAD
Publiée le
47k-49 999 €
Toulouse, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Toulouse - Au moins 5 ans d’expérience Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Tech Lead IA pour intervenir au sein de notre structure, au sein de notre centre d’expertise d’intelligence artificielle. Contexte : Vous êtes à l’aise avec les modèles de Machine Learning et de Deep Learning… mais surtout, vous savez pourquoi vous les utilisez, comment les évaluer et comment les faire tenir en production ? On devrait se parler. Vous intervenez comme référent technique sur vos sujets IA, avec une vraie responsabilité sur la partie projet et architecture. L’objectif n’est pas seulement de “faire des modèles”, mais de concevoir des solutions IA robustes, utiles et exploitables dans la durée. Voici un aperçu détaillé de vos missions : *Concevoir, entraîner et déployer des modèles en environnement réel * Définir des protocoles d’évaluation rigoureux, alignés sur les enjeux métier *Anticiper les problématiques de biais, variance, déséquilibre de données, bruit, dérive * Mettre en place du monitoring et optimiser performance & coûts * Contribuer activement aux choix d’architecture *Découper les problématiques complexes en étapes priorisées et actionnables
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5670 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois