Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 339 résultats.
Freelance

Mission freelance
Lead MLOps Python - Spécialiste IA/RAG

Publiée le
IA
MLOps
Python

3 ans
600 €
La Défense, Île-de-France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Freelance

Mission freelance
Developpeur Fullstack (H/F) France

Publiée le
Angular
Go (langage)
Node.js

6 mois
320-440 €
France
Télétravail partiel
Context Nous recherchons aujourd'hui un consultant expérimenté afin de développer et intégrer les outils IT permettant la digitalisation du parcours client. Le consultant doit être capable d'apporter son expérience, et sa pierre à l'édifice comme le reste de l'équipe. La durée de la mission pourra être rallongée selon les besoins de l'équipe. Mission Au sein d'une équipe de développement évoluant dans un contexte agile en collaboration avec les équipes produits, vous aurez la charge de participer au développement des interfaces client utilisées pour manager nos produits. Cela pourra se traduire principalement par deux types de missions : * Majoritairement, Développer de nouveaux produits, en collaboration avec nos PO, UX/UI designer, et products units porteuses des API * De manière plus ponctuelle, Migrer des produits existants, depuis la codebase AngularJS vers ReactJS, en embarquant au passage quelques améliorations / optimisations.
Freelance

Mission freelance
DevOps (H/F)

Publiée le
Datadog
Kubernetes

2 ans
100-480 €
Lille, Hauts-de-France
Télétravail partiel
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un DevOps (H/F) à Lille, France. Les missions attendues par le DevOps (H/F) : * Garantir la disponibilité, la performance et la résilience * Assurer le bon fonctionnement, la maintenance et le support * Définir et opérer les environnements de développement, intégration et production, en optimisant coûts et ressources cloud. * Automatiser, fiabiliser et sécuriser les déploiements via la chaîne CI/CD (approche DevSecOps). * Entretenir la culture DevOps dans l’équipe et accompagner l’amélioration continue des pratiques. * Définir et suivre les KPIs de performance et de fiabilité (monitoring, observabilité, qualité de service). * Contribuer activement à la gestion des incidents et à leur résolution rapide Skills attendus * Expérience confirmée en DevOps, CloudOps ou SRE, dans un environnement Web (HTTP/HTTPS, DNS, etc.) * Maîtrise des outils d’automatisation et de CI/CD * Connaissance des environnements transactionnels à forte disponibilité * Solides compétences Cloud & conteneurisation (Kubernetes, Docker, etc.) * Maitrise de l'infra as Code (terraform) * Maîtrise des outils de monitoring (Datadog). Reporting/dashboarding (Looker ou PowerBI) serait un plus * Bonne connaissance des bases de données (MongoDB ; BigQuery serait un plus) * Capacité à appliquer — et challenger — les standards d’architecture, sécurité, performance et robustesse logicielle * Sensibilité à la qualité de service et à la satisfaction utilisateur * Esprit collaboratif et goût du travail en transverse avec des interlocuteurs variés * Aisance en environnement international (anglais technique requis) * Capacité à insuffler une culture DevOps et à accompagner le changement L'équipe est composée d'une Product Owner, d'une testeuse, d'un Tech Lead et de développeurs front et back. Le candidat / la candidate devra impérativement participer aux astreintes (1semaine (soir et weekend) toutes les 4, 5 ou 6 semaines). Il / Elle sera en contact régulier avec la communauté des ops et développeurs, la maitrise de l'Anglais professionnel est donc un pré-requis.
Freelance

Mission freelance
IAM MIGRATION - FULL TT

Publiée le
IAM

1 an
400-550 €
Strasbourg, Grand Est
Télétravail 100%
Missions: Accompagner la migration de la plateforme MIA vers une architecture Docker/Kubernetes sur Google Cloud, incluant : Analyse de l’existant et définition de l’architecture cible conteneurisée. Réalisation d’un POC avec les composants techniques fournis en version container. Mise à niveau vers les dernières versions des composants de la solution MIA. Industrialisation du déploiement en production (GKE, CI/CD, sécurité, supervision). Mise en place d’un PRA sur Google Cloud et transfert de compétences Profil recherché: Expertise sur les composants utilisés par MIA (annuaire, sécurisation des accès, services d’identités). Maîtrise de Docker, Kubernetes, et des architectures cloud-native. Très bonne connaissance de Google Cloud Platform, notamment GKE, IAM, réseau, supervision. Expérience confirmée en migrations vers Kubernetes et modernisation d’infrastructures. Compétences en sécurité, haute disponibilité et PRA/PCA. Autonomie, capacité de conseil et rigueur technique.
Offre premium
Freelance

Mission freelance
Test et Homologation Confirmé

Publiée le
Performance testing

24 mois
370-380 €
Nantes, Pays de la Loire
Télétravail partiel
Nou sommes à la recherche d'un profil Test et Homologation Confirmé ( 4 à 5 and d'xp). Missions principales: Garantir la conformité des produits livrés aux besoins exprimés et traduits en spécifications, qu’il s’agisse de systèmes existants, d’évolutions, de corrections d’incidents ou de nouveaux produits. Contribuer à l’élaboration de la stratégie de test en s’appuyant sur les exigences fonctionnelles et techniques du projet. Planifier l’exécution des tests conformément aux principes définis dans la stratégie, et assurer, si nécessaire, le pilotage d’une équipe de test en fonction de la taille du projet. Réaliser les validations prévues dans le plan de test et de recette (tests unitaires, validation du bon fonctionnement, recette provisoire, validation de service régulier, recette définitive). Identifier et signaler les anomalies ou écarts constatés. Exécuter les campagnes de tests prévues. Organiser et planifier les activités de test en tenant compte des contraintes de ressources humaines, matérielles et des environnements disponibles. Vérifier la disponibilité et la conformité des livrables nécessaires à la préparation du plan de test. Rédiger les plans de qualification fonctionnelle en collaboration avec les parties prenantes (utilisateurs clés, chef de projet, etc.). Rédiger les plans de tests d’installation, d’exploitation et d’intégration à partir des dossiers d’analyse ou d’exploitation. Préparer et maintenir les configurations de test en respectant les processus d’installation. Mettre en place et exploiter les outils de suivi des tests. Coordonner la réalisation des tests et assurer le suivi des anomalies. Assurer le reporting régulier auprès du chef de projet. Rédiger les fiches de qualification. Organiser les procédures de mise en service, les bilans et l’archivage des résultats. Mettre à jour les masters (configurations types) utilisés pour les tests.
CDI
Freelance

Offre d'emploi
Ingénieur Systèmes Windows

Publiée le
Administration Windows
Apache Tomcat
Internet Information Services (IIS)

20 jours
39k-45k €
290-350 €
Nantes, Pays de la Loire
Télétravail partiel
Dans le cadre du renforcement de ses équipes systèmes, nos partenaires cherchent un Ingénieur Systèmes Windows confirmé. Vous intervenez sur des environnements critiques à forte volumétrie, en lien étroit avec les équipes internes, les éditeurs et les clients finaux. Votre rôle est clé dans l’installation, l’exploitation et la fiabilisation des progiciels métiers. Enjeux et missions Installation et mise en production de progiciels dans un environnement complexe (≈ 1000 serveurs Windows, ≈ 100 progiciels). Administration et maintien en conditions opérationnelles des infrastructures Windows Server. Scripting et automatisation via PowerShell. Gestion et exploitation des environnements Microsoft RDS. Interaction régulière avec les éditeurs logiciels (support, incidents, évolutions). Contribution à la documentation technique et au respect des processus qualité (ISO 9001). Travail en équipe (squads de 4 personnes selon périmètre).
Freelance

Mission freelance
Machine Learning Ops

Publiée le
MLOps
RAG

1 an
400-650 €
Paris, France
Télétravail partiel
Je suis à la recherche pour un de nos clients d'un Machine Learning Ops. Le rôle consiste à garantir l'industrialisation, la fiabilisation, et la mise en production robuste et sécurisée de l'ensemble de nos modèles d'Intelligence Artificielle. Vous serez un pilier dans l'établissement des bonnes pratiques MLOps (Monitoring, Sécurité, Reproductibilité) et collaborerez en étroite collaboration avec les Data Scientists, Ingénieurs ML, le Product Owner, et l'équipe DevOps. Cette prestation est essentielle pour transformer la recherche en solutions opérationnelles à forte valeur ajoutée. Expertises requises dans le cadre de la réalisation de la prestation - 3 ans minimum d'expérience prouvée en développement/industrialisation IA/ML/DL ciblant des environnements de production. - Maitrise Avancée de Python et des librairies clés de Data Science/ML (e.g., NumPy, Pandas, Scikit-learn, PyTorch/TensorFlow). - Maîtrise de SQL pour l'accès et la manipulation des sources de données. - Pipeline MLOps et Outils : - Conception et Implémentation de Pipelines CI/CD dédiés aux modèles ML (GitLab CI ou équivalent), incluant le versioning des modèles et des datasets. - Conteneurisation Maîtrisée : Capacité à packager, déployer et maintenir des services IA via Docker. - Tracking et Registre de Modèles : Expérience obligatoire avec des outils de gestion du cycle de vie des modèles comme MLflow ou équivalent (p. ex. Comet ML). - Expertise Modèles de Langage (LLM/NLP) - Maîtrise de l'architecture RAG (Retrieval-Augmented Generation) et de son industrialisation. - Mise en place et intégration d'outils d'orchestration de LLM (e.g., LangChain/LangSmith, Semantic Kernel, ou équivalent) dans un contexte de production. - Cloud et Déploiement : Maîtrise avérée d'un Cloud Provider avec une expérience significative en déploiement de services serverless ou conteneurisés - Optimisation et Feedback : capacité à intégrer des boucles de feedback continu pour l'amélioration des modèles (Monitoring de la dérive, Retraining automatique, concepts de Human-in-the-Loop). C ompétences souhaitées : - Orchestration et Scalabilité : expérience pratique du déploiement de charges d’activité IA sur Kubernetes (K8s) et des concepts d'opérateurs MLOps (KubeFlow, Argo). - Expérience dans la mise en place de tests de performance et de montée en charge spécifiques aux services d'inférence ML/LLM (benchmarking, stress testing, choix du hardware). - Techniques de Modélisation Avancées : - Connaissance des techniques d'optimisation de modèles pour la production (Quantization, Distillation, Pruning) ou de Fine-Tuning/PEFT (LoRA). - Expérience en Computer Vision (déploiement de modèles de détection/classification) ou en SLM (Small Language Models). - Qualité et Assurance IA : - Mise en œuvre de métriques d'évaluation non-traditionnelles pour les LLM (e.g., AI as a Judge, évaluation du Hallucination Rate, Grounding Score).
Freelance

Mission freelance
LEAD DATA SCIENTIST GCP (550 MAX)

Publiée le
Google Cloud Platform (GCP)

1 an
400-550 €
Île-de-France, France
Télétravail partiel
Pilotage Technique & Architecture : Concevoir l'architecture des briques algorithmiques (Clustering, Prévision de ventes, Optimisation sous contraintes) sur GCP. ● Développement algorithmique (Hands-on) : Coder les modèles complexes, notamment l'algorithme d'optimisation (Recherche Opérationnelle) pour respecter les contraintes magasins (linéaire, supply, mix marge/CA). ● Coaching & Code Quality : En support éventuel de notre Lead Data Scientist interne, encadrer les Data Scientists séniors, garantir les bonnes pratiques (CI/CD, DVC, Tests) et l'industrialisation via Airflow/Composer. ● Mesure de la performance : Mettre en place des méthodologies robustes (ex: Causal Impact) pour mesurer les gains business (CA/Marge) post-déploiement. ● Excellente maîtrise de SQL, avec une forte expérience sur BigQuery et une bonne connaissance des bases de données SQL/NoSQL (PostgreSQL, MongoDB, DBL…). ● Modélisation et préparation des données : conception de pipelines optimisés dans BigQuery, en garantissant la qualité, la fiabilité et la cohérence des analyses. ● Connaissance des architectures data modernes (Data Lake, Data Warehouse) et des environnements Cloud (GCP, AWS, Azure). ● Maîtrise des outils de CI/CD avec GitLab CI, et des pratiques de gestion de version (Git). ● Compréhension des principes DevOps, avec une vision orientée fiabilité et amélioration continue. ● Bonne maîtrise des méthodologies agiles, notamment Scrum, Sprint Planning et Backlog
Freelance

Mission freelance
Guidewire Developpeur

Publiée le
Développement

3 mois
Paris, France
Télétravail partiel
Kajenthi@RED Global – Recherche Developpeur Guidewire – Freelance – 3 mois + - Paris – Hybrid Nous recherchons un Développeur Guidewire passionné et expérimenté pour rejoindre notre équipe IT dédiée à la transformation des systèmes. Vous participerez au développement, à la configuration et à l’intégration des solutions Guidewire (PolicyCenter, BillingCenter, ClaimCenter) afin de soutenir les besoins métiers de l’entreprise. Profil recherché: Développeur confirmé/senior (2-3 ans d'expérience sur Guidewire) Bonnes compétences en communication Francais uniquement Modalités: Lieu: Paris - Présence sur site 2 jours/semaine Démarrage: ASAP ou Janvier 2026 Freelance – 3 mois Renouvelable Si vous etes intéressé(e) par la mission, n’hésitez pas à m’envoyer votre CV sur
Freelance

Mission freelance
[FBO] Ingénieur système Linux / Expertise Kubernetes - 1080

Publiée le

6 mois
1-360 €
Nice, Provence-Alpes-Côte d'Azur
Contexte de la mission Le service repose sur une solution Database as a Service (DBaaS), offrant aux équipes métiers une plateforme complète pour collecter, stocker de manière sécurisée et exposer la donnée via des APIs. Ces APIs sont déployées sur des clusters Kubernetes hébergés on-premise sur des infrastructures Linux. Certaines de ces APIs vont être migrées vers du Cloud Public GCP. Objectifs et livrables Objectif de la mission : Assurer la mise en production des APIs sur des clusters Kubernetes et garantir leur exploitation (RUN) dans un environnement critique et fortement sollicité. Compétences indispensables: Administration système Linux Expertise Kubernetes, Helm, Docker Infrastructure as Code : maîtrise de Terraform et Ansible Monitoring & Observabilité : utilisation de Grafana et Prometheus Connaissances solides des Web Services (REST, SOAP, etc.) Expérience confirmée en environnement de production critique et hautement transactionnel En + : Cloud GCP Candidatures étudiées à partir de 4 ans d'expérience sur le socle technique évoqué, hors stages/alternances. Nécessité d'être installé dans le 06, avec une capacité à se rendre sur site client à minima 3j/semaine.
CDI

Offre d'emploi
Ingénieur Cloud DevOPS (F/H)

Publiée le

40k-45k €
Lille, Hauts-de-France
Ingénieur Cloud DevOPS (F/H) - Lille Dans le cadre d'une prestation stratégique chez un client grand compte, nous recherchons un Ingénieur Cloud DevOps confirmé pour intégrer une squad agile dédiée à la modernisation des infrastructures, à l'automatisation des processus de delivery et à la sécurisation des environnements Cloud. Objectifs et principales activités : Architecture & Automatisation Concevoir des architectures Cloud scalables, sécurisées et résilientes. Définir et implémenter des standards d'automatisation via des outils d'Infrastructure as Code (Terraform, Ansible). Participer à la modélisation des environnements et à leur documentation technique. CI/CD & Delivery Déployer et optimiser des pipelines CI/CD robustes et intégrés aux workflows de développement (GitLab CI, Jenkins, ArgoCD). Intégrer des tests automatisés (linting, sécurité, performance) dans les chaînes de build et de déploiement. Assurer la traçabilité, la fiabilité et la fluidité des livraisons en environnement multi-projets. Containerisation & Orchestration Administrer des clusters Kubernetes (AKS, EKS, GKE) et gérer les workloads conteneurisés (Docker). Implémenter des stratégies de scaling automatique, de gestion des secrets et de haute disponibilité. Participer à la mise en place de microservices et à leur supervision. Monitoring, Observabilité & Sécurité Mettre en œuvre des solutions de monitoring et d'observabilité (Prometheus, Grafana, ELK, Datadog). Définir des alertes proactives et des tableaux de bord pour suivre les indicateurs clés. Collaborer avec les équipes sécurité pour intégrer des pratiques DevSecOps : scans de vulnérabilités, IAM, chiffrement. Collaboration & Expertise Travailler en méthodologie Agile/Scrum, en lien direct avec les développeurs, architectes et Product Owners. Participer aux revues de code, aux démarches d'amélioration continue et aux rituels d'équipe. Être force de proposition sur les évolutions techniques, les choix d'outils et les optimisations d'infrastructure.
Freelance

Mission freelance
Testeur Expérimenté

Publiée le
Apache Kafka
API REST
JIRA

1 an
350-450 €
Lille, Hauts-de-France
Télétravail partiel
La mission consiste à : Rédaction et exécution des cas de test Analyse, animation et suivi des anomalies Automatisation des campagnes de test (Sanity, TNR, Déploiement CI ...) Tests d'intégration (API diverses, Kafka, Transfile ...) Compétences attendues : Certification ISTQB Compétences sur Xray / Jira Playwright Pratique de l'Agilité au quotidien Autres outils : SonarQube, Git Savoir-être : communication, forte adaptibilité, prise de recul Mission longue durée basée sur la métropole lilloise avec télétravail partiel
Freelance

Mission freelance
Développeur (euse) Cobol

Publiée le
CICS (Customer Information Control System)
COBOL
Pacbase

1 an
450-500 €
Île-de-France, France
Description : Participe à l'analyse fonctionnelle détaillée des besoins utilisateurs et peut être sollicité pour des ateliers de définition des spécifications générales Étudie les opportunités et la faisabilité technologique de l'application, réalise l'analyse technique, l'étude détaillée et contribue à l'estimation des charges CONCEPTION ET DÉVELOPPEMENT Contribue au design du logiciel et des frameworks utilisés dans le cadre du projet Adapte et applique les paramètres techniques des progiciels ou des middlewares Réalise le prototypage Analyse et développe les composants en utilisant les langages appropriés Participe à la structuration des Bases de Données Participe à la revue croisée des développements de ses pairs Initialise le dossier d'exploitation Assemble les composants unitaires dans un package applicatif cohérent destiné au déploiement de la solution et l'intègre à la gestion de configuration Documente les applications pour les développements ultérieurs et la Mise en Production (MEP) Harmonise et industrialise l'ensemble des composants et applications Utilise les composants logiciels réutilisables et met à jour la nomenclature
Freelance

Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS

Publiée le
Azure
BI
DevOps

24 mois
325-650 €
La Défense, Île-de-France
Télétravail partiel
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
Freelance

Mission freelance
Data Engineer Advanced (Scala / Spark / AWS)

Publiée le
Apache Spark
AWS Cloud
AWS Glue

1 an
Paris, France
Télétravail partiel
Contexte Nous recherchons un Data Engineer confirmé à senior pour intervenir au sein d’un grand groupe international du secteur de l’énergie . La mission s’inscrit dans un environnement data critique , lié à l’exploitation de données de marché et à la production d’indicateurs et d’alertes à forte valeur métier. Le système cible repose sur une architecture batch Big Data structurée selon une architecture médaillon (Silver / Gold) , avec ingestion multi-sources, normalisation, calculs avancés et distribution des données vers différents consommateurs métiers. Localisation : Paris (hybride) Durée : 12 mois renouvelables (jusqu’à 3 ans) Objectifs de la mission Concevoir et développer des pipelines d’ingestion et de transformation en Scala Spark Traiter, dédoublonner, normaliser et structurer des données de marché Refactoriser des imports existants afin de les rendre conformes à l’architecture médaillon Silver layer : données dédoublonnées, normalisées et structurées Gold layer : génération d’agrégats métiers (carnets d’ordres, best bid/ask, OHLC, etc.) Implémenter et challenger les règles métier en garantissant les performances, la scalabilité et la maîtrise des coûts cloud Mettre en place et maintenir les règles de Data Quality (ex. Great Expectations) et contribuer au data catalog Participer à l’amélioration des frameworks communs : monitoring, CI/CD, tests, performance, résilience et standards de développement Rédiger et maintenir la documentation technique (architecture, flux, schémas, infrastructure) Environnement technique ETL / Compute : Scala, Spark (batch) Cloud AWS : Glue Jobs, S3, Lambda, Step Functions Qualité des données : Great Expectations ou équivalent DevOps / CI-CD : Git, pipelines, bonnes pratiques d’industrialisation Environnement applicatif connexe : API REST, services backend Compétences complémentaires appréciées : Python, React Important : cette mission ne s’appuie pas sur des solutions managées de type Databricks. Compétences requisesIndispensables Minimum 5 ans d’expérience significative en Scala et Spark Expérience confirmée sur des projets Big Data / ETL à forte volumétrie Expérience pratique sur AWS (Glue, S3, orchestration) Bonne culture DevOps Autonomie, rigueur, capacité à être force de proposition Appréciées Python Développement API Connaissances de base en market data / trading (non bloquant) Process de sélection Entretien Teams de 30 minutes axé sur les expériences professionnelles Entretien Teams d’une heure axé sur les compétences techniques avec un Data Engineer de l’équipe Modalités de réponse Merci de transmettre : CV, disponibilité, TJM, localisation et un résumé des expériences Scala / Spark / AWS Glue .
CDI

Offre d'emploi
Data Engineer H/F

Publiée le

45k-55k €
Nantes, Pays de la Loire
Télétravail partiel
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : 729z7ixwq0
2339 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous