Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 212 résultats.
CDI
CDD

Offre d'emploi
Senior AI engineer

Publiée le
API
Python
Scrum

18 mois
20k-60k €
Paris, France
Télétravail partiel
CONTEXTE Experience : 6 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Reporting, DevsecOps, IA generative Mission au sein d’un centre d’excellence en IA générative d’un grand groupe international, dédié à la conception et à l’industrialisation de solutions IA à destination de métiers à forte valeur ajoutée.Le consultant intervient sur un assistant IA métier déjà en production connecté au CRM, avec pour objectifs : - son industrialisation, - l’extension des cas d’usage, - la scalabilité et la robustesse de l’architecture. Environnement structuré en : - équipes Produits (conception de solutions IA), - équipes Plateformes (cloud, sécurité, DevSecOps, outillage, observabilité). MISSIONS Objectifs de la mission - Industrialiser une solution d’IA générative existante. - Concevoir et faire évoluer des agents IA intégrés à des outils métiers. - Garantir performance, sécurité, conformité et maîtrise des coûts. - Étendre les usages (nouveaux parcours utilisateurs, nouvelles sources de données). Responsabilités clés (synthèse) IA & architecture : - Concevoir et implémenter des architectures IA générative. - Développer et faire évoluer des agents IA (copilotes, assistants métier). - Travailler sur des problématiques LLM / RAG / prompt engineering / orchestration d’agents. Intégration & SI : - Intégrer les solutions IA dans un SI existant via APIs et plateformes Microsoft. - Connecter les agents à différentes sources de données métiers. Run & industrialisation : - Mettre en place le monitoring en production. - Améliorer en continu la qualité des réponses, les performances et les coûts. - Gérer anomalies et évolutions mineures en production. Collaboration & delivery : - Travailler en étroite collaboration avec équipes produit, plateformes et sécurité. - Fonctionner en mode Agile (Scrum), avec reporting régulier. - Contribuer à la documentation et au partage de bonnes pratiques. Expertise souhaitée Compétences techniques indispensables - Expérience confirmée en IA générative / agents IA. - Maîtrise des concepts : LLM, RAG, embeddings, prompt engineering, tool calling. - Expérience avec des frameworks d’orchestration d’agents (ex. Semantic Kernel ou équivalent). - Très bonne connaissance de l’écosystème Microsoft Azure : - Copilot Studio, AI Foundry / Fabric, - API Management, - Power Platform, Dataverse, - Azure Functions. - Développement : Python (indispensable), C# et JavaScript. - Sensibilité aux pratiques DevSecOps, monitoring et observabilité. Certifications (nice to have) : - Azure AI Engineer (AI-102) - Azure AI Fundamentals (AI-900) - Azure Developer (AZ-204) Soft skills clés : - Capacité à travailler en environnement structuré et exigeant. - Bon niveau de communication et esprit collaboratif. - Rigueur, autonomie, sens du delivery.
Freelance
CDI
CDD

Offre d'emploi
Data Engineer / GenAI Engineer (Senior)

Publiée le
DevOps
Docker
Mongodb

1 an
Île-de-France, France
Contexte de la mission Dans le cadre d’un programme stratégique d’IA augmentée , la mission vise à concevoir et déployer un dispositif de benchmark permettant d’évaluer les technologies et solutions d’IA générative du marché. L’objectif est de sécuriser les choix technologiques , réduire les risques et structurer une roadmap produits et technologies IA . Objectifs globaux Mettre en place une architecture data complète dédiée aux benchmarks IA générative Automatiser l’ingestion, la préparation, le versioning et l’évaluation des données Garantir performance, scalabilité, traçabilité et reproductibilité des benchmarks Missions principalesArchitecture & Data Engineering Concevoir et implémenter des pipelines automatisés d’ingestion, nettoyage et versioning des datasets Développer des pipelines de génération d’embeddings et de collecte des résultats des modèles IA Mettre en place et administrer des bases de données : Vectorielles SQL / NoSQL Stockage objet (volumes importants) Définir une architecture data robuste répondant aux exigences de performance et de scalabilité DevOps & Industrialisation Conteneurisation des environnements ( Docker ) Mise en place d’ Infrastructure as Code (IaC) Automatisation CI/CD et déploiements reproductibles Qualité, documentation & gouvernance Rédiger le dictionnaire de données Produire la documentation technique complète Définir les procédures de validation et de contrôle qualité des données Assurer la traçabilité et la conformité des traitements Livrables attendus Architecture data détaillée (schémas, flux, intégrations) Infrastructure data opérationnelle (DB vectorielles, SQL/NoSQL, stockage objet) Environnements reproductibles (IaC, Docker, configurations) Code source documenté et versionné des pipelines Dictionnaire de données et documentation technique Procédures de validation et critères d’acceptation qualité Méthodologie Travail en mode Agile Participation aux rituels agiles et points d’avancement réguliers Reporting mensuel : livrables réalisés, à venir, points bloquants Compétences techniques requisesImpératives Python avancé (API, scripts, pipelines data) Bases de données : PostgreSQL, MongoDB, bases vectorielles Cloud : Google Cloud Platform (GCP) DevOps : Docker, Kubernetes, CI/CD (GitLab CI) Architecture Data & Big Data IA générative : LLM, RAG, embeddings, prompts Appréciées IaC (Terraform ou équivalent) Tests unitaires, intégration et fonctionnels Software Craftsmanship (code review, pair programming) Connaissances fonctionnelles Concepts IA : LLM, agents, assistants, hallucinations, prompts Usage critique et éthique de l’IA RGPD et enjeux éthiques liés à l’IA Langues Anglais technique courant – impératif (oral & écrit)
CDI

Offre d'emploi
Développeur Sénior Fullstack orienté Backend H/F

Publiée le
Angular
Azure AI
Firebase

60k-70k €
75000, Paris, Île-de-France
Télétravail partiel
Lieu : Paris (75) Salaire : 60 à 70 K€ annuel brut Rythme : 2 à 3 jours de télétravail par semaine Nous recherchons pour notre client, Edtech, un Développeur Sénior Fullstack orienté Backend dans le cadre d'une opportunité de création de poste en CDI. VOS MISSIONS : Rattaché à la CTO, votre poste implique la conception et la maintenance d’architectures backend évolutives, intégrant des outils pertinents, y compris des technologies d’IA le cas échéant, tout en garantissant robustesse, sécurité et performance. Vos missions sont les suivantes : Veille technologique & IA · Assurer une veille continue sur les modèles d’IA pertinents au regard des cas d’usage identifiés (qualité, performances, coûts). · Réaliser des tests comparatifs et benchmarks, et produire un rapport mensuel de synthèse incluant recommandations et axes d’amélioration. · Piloter les évolutions ou migrations technologiques validées en interne, avec une capacité de mise en œuvre sur un cycle de sprint de deux semaines . · Mener une étude approfondie sur la faisabilité et la valeur ajoutée de modèles entraînés sur mesure pour des usages ciblés, et livrer une analyse décisionnelle dans un délai de trois mois. DevOps & fiabilité · Mettre en place et maintenir un pipeline CI/CD (GitHub, outils de gestion de tickets) dans un objectif d’industrialisation des déploiements. · Renforcer progressivement la couverture de tests unitaires sur les composants critiques, avec une amélioration continue à chaque sprint. · Déployer des solutions de monitoring, logging et alerting afin d’assurer la stabilité et la supervision des environnements. · Suivre et optimiser l’utilisation des services d’IA (consommation, coûts, latence, disponibilité) et produire une synthèse mensuelle . · Être en mesure d’assurer, à moyen terme, des mises en production critiques de manière autonome. APIs & intégrations · Concevoir et exposer une API robuste, documentée et scalable , facilitant l’intégration du produit dans des environnements clients. · Garantir des délais d’intégration courts pour les cas d’usage standards. · Assurer un haut niveau de sécurité applicative et API (authentification, gestion des accès, bonnes pratiques). · Maintenir une documentation technique à jour, alignée avec les cycles de déploiement. · Intervenir ponctuellement en support des équipes clientes lors des phases d’intégration technique. Performance & optimisation · Garantir des temps de réponse et de chargement optimisés , y compris dans des contextes de forte volumétrie et de montée en charge. · Exploiter les capacités de l’IA pour structurer, synthétiser et valoriser la donnée métier à long terme : o Identification des zones d’amélioration côté conception de contenus. o Personnalisation des parcours et recommandations côté utilisateurs finaux. Évolution produit & architecture · Développer et maintenir les briques backend nécessaires à l’évolution fonctionnelle du produit (ex. gestion de fichiers, paiements). · Participer activement aux cycles de développement en sprints itératifs . · Être force de proposition sur les améliorations techniques et fonctionnelles. · Contribuer aux choix d’architecture et à la vision long terme du produit. Collaboration & communication Travailler en étroite collaboration avec l’équipe produit sur l’architecture, la roadmap et les priorités. Anticiper les besoins des équipes frontend et faciliter les intégrations techniques. Vulgariser et communiquer efficacement les enjeux techniques auprès des parties prenantes non techniques. ENVIRONNEMENT TECHNIQUE : · Backend : NodeJS + Typescript · Frontend : Angular + Typescript · Base de données & hébergement : Firebase, Google Cloud Platform · IA : Azure AI (gpt, whisper, Azure Text-to-Speech, embeddings) · Versioning, CI/CD : GitHub
CDI

Offre d'emploi
Architecte data engineering - Industrie H/F

Publiée le

35k-45k €
Saint-Égrève, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte du projet : Viveris intervient auprès de ses clients dans le cadre de la mise en oeuvre et de l'évolution de plateformes Data à fort enjeu stratégique. Dans ce cadre, nous recherchons un Data Architect qui interviendra en interface avec les directions métiers, les équipes de transformation et d'ingénierie. L'objectif de ce poste consiste à définir, cadrer et accompagner l'architecture Data des projets, depuis l'identification des besoins jusqu'à la mise en oeuvre des solutions, en garantissant l'alignement avec la politique Data et les standards technologiques du Groupe. Responsabilités : Réaliser les études de cadrage de l'architecture Data en s'appuyant sur une expertise des technologies clés de la plateforme Data (stockage, traitement, restitution, exploration, référentiels, ML / IA). Définir et mettre en oeuvre les architectures Data en maîtrisant les formalismes de modélisation (BPMN, modèles conceptuels et logiques de données). Projeter, décliner et accompagner la politique générale de la donnée sur son périmètre (directions métiers, entités). Intervenir dès l'identification des besoins métiers afin d'accompagner les équipes projets et de développement dans la déclinaison des patterns d'architecture Data. Maintenir la roadmap des services Data et accompagner les projets dans la mise en oeuvre de leurs produits selon les meilleures pratiques. Collaborer avec les architectes d'entreprise et techniques afin d'assurer la cohérence globale et l'alignement avec les standards technologiques (Cloud, conteneurisation, API Management).
Freelance

Mission freelance
Expert Cyber Sécurité GenAI / LLM

Publiée le
Cybersécurité
GenAI

3 ans
670 €
Paris, France
Télétravail partiel
Nous recherchons un expert opérationnel en cybersécurité pour accompagner l’évolution d’un socle technique GenAI dans un environnement Cloud et IA. La mission consiste à sécuriser des solutions basées sur Microsoft 365, Azure Cognitive Services, Copilot, Fabric, Power Platform, Azure ML , ainsi que des plateformes data/AI (Snowflake, Databricks, MS Fabric). Périmètre de la mission Assistance sécurité sur les projets GenAI (architecture, normes, standards). Sécurisation des implémentations et usages des services Cloud & IA. Production documentaire sécurité : dossiers de sécurité, blueprints, analyses de risques, recommandations d’architecture. Revue sécurité du code et intégration DevSecOps. Déclinaison sécurité des User Stories et reporting. Environnement Agile / anglophone. Compétences techniques requises Sécurité opérationnelle Microsoft : Microsoft 365 , Azure Cognitive Services , Copilot , Fabric , Power Platform , Azure ML . DevSecOps : CI/CD sécurisés, IaC (Terraform, Bicep), Sentinel, Defender for Cloud, Purview. Sécurisation Azure : tenants, subscriptions, RBAC, MFA, Conditional Access, PIM. Clouds : MS Azure (impératif), AWS (apprécié). Scripting & automatisation : PowerShell, Python ; analyse de logs, contrôles de sécurité automatisés. Anglais opérationnel. Livrables attendus Dossiers de sécurité & blueprints (analyse de risques, contre-mesures). Exigences & spécifications sécurité dérivées des User Stories. Revue sécurité du code / recommandations DevSecOps. Chapitres sécurité dans la documentation projet (DAT, DAH, LLD/HLD). Reporting & KPI.
Freelance

Mission freelance
Architecte technique JAVA / python Orleans (3 jours TT)

Publiée le
Architecture
Java
Python

6 mois
400-450 £GB
Orléans, Centre-Val de Loire
Télétravail partiel
Architecte technique JAVA / python Orleans (3 jours TT) La mission est à réaliser sur Orleans avec 3 jours de TT / semaine. 2026 sera une année transformante avec l'intégration, en standard, de nouvelles technologies. Le python doit faire partie de ces technologies et doit apporter un avoir une qualité, une résilience, l'observabilité et une performance du même niveau que les autres standards comme le java. Objectifs : · Choisir les bons outils (API, exposition), · Produire un diagramme de choix pour cadrer les usages, · Standardiser les pratiques, · Embarquer l'ensemble des équipes, · Ajout des fonctionnalités nécessaires pour une mise en production d'un développement python Enjeux : · Être au rendez-vous pour accompagner le groupe dans sa transformation · Poser les bases pour réaliser des développements IA · Apporter plus de souplesse sur le choix du socle technique La mission est à réaliser sur Orleans avec 3 jours de TT / semaine.
CDI

Offre d'emploi
Data Engineer Senior

Publiée le

60k-70k €
Neuilly-sur-Seine, Île-de-France
Contexte du poste Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe Data & Cloud. Vous jouerez un rôle clé dans la conception d’architectures data robustes, l’industrialisation des pipelines, l’optimisation des performances BigQuery et la mise en place de solutions IA/ML. Vous interviendrez dans un environnement GCP-first , moderne, orienté automatisation et bonnes pratiques DevOps. 1. Compétences techniques attendues Architecture Système & Cloud Excellente maîtrise de Google Cloud Platform (GCP) Containerisation & architectures serverless Maîtrise des patterns d’intégration d’entreprise DevOps & Infrastructure as Code Terraform (développement de modules, automatisation, paramétrages avancés) CI/CD : GitHub Actions, pipelines automatisés Maîtrise de Git / GitHub Développement d’API Conception & développement d’API REST Expérience sur Apigee , Cloud Run , FastAPI Architectures orientées événements Mise en place de flux événementiels : GCP Pub/Sub Connaissance de Kafka Modélisation de données Modèles en étoile (Star Schema) Modèles en flocon (Snowflake Schema) Modélisation dimensionnelle avancée BigQuery – Expertise avancée Écriture et optimisation de procédures stockées complexes Optimisation des performances & des coûts Optimisation DirectQuery pour outils BI Orchestration & pipelines de données Cloud Workflows, EventArc, Cloud Run Scripting Python ML / IA / GenAI Algorithmes classiques, MLOps Expérience sur Vertex AI (pipelines, modèle, tuning) Compréhension des réseaux neuronaux (encodeur/décodeur) Connaissance de concepts LLM, RAG, MCP BI & Analytics Looker, modèles LookML Qualité & Observabilité Expérience en qualification, monitoring & observabilité des données Méthodologies & Leadership Travail en équipes Agile / Scrum Mentorat & accompagnement de développeurs Atouts (Nice to have) Compétences WebApp : JavaScript / React Certification GCP Data Engineer ou Cloud Architect
Freelance

Mission freelance
POT8891 - Un Architecte Python sur Orléans

Publiée le
Python

6 mois
260-450 €
Orléans, Centre-Val de Loire
Télétravail partiel
Almatek recherche pour l'un des ses clients, Un Architecte Python sur Orléans L’Architecte Python sera responsable de?: Définition et cadrage technique Choisir les bons outils, patterns et mécanismes d’exposition (API, services, microservices). Produire un diagramme de choix architecturaux permettant de cadrer les usages Python et guider les équipes techniques. Définir les standards de développement Python?: qualité, performance, résilience, observabilité, logging, sécurité. Standardisation & industrialisation Standardiser les pratiques de développement Python pour atteindre le niveau attendu sur les autres socles techniques (Java notamment). Proposer les fonctionnalités nécessaires à une mise en production fiable des développements Python (pipelines, packaging, tests, monitoring). Accompagnement & communication Embarquer et accompagner l’ensemble des équipes dans l’adoption des nouveaux standards et outils. Organiser et animer des ateliers d’architecture, des séances de partage de bonnes pratiques ou des revues de conception. Enjeux de la mission: L’Architecte Python devra contribuer directement aux enjeux stratégiques suivants?: Accompagner le groupe dans sa transformation technologique afin d’intégrer Python comme technologie de premier plan. Poser les bases pour les futurs développements IA (usage de LLM, data pipelines, modèles, microservices data/IA). Apporter de la souplesse dans les choix de socles techniques, pour permettre des architectures plus adaptatives et modulaires. Activités principales: Réaliser un audit des pratiques Python existantes (code, architecture, CI/CD, sécurité). Définir et documenter les standards d’architecture Python (guidelines, modèles, patterns). Rédiger et maintenir la documentation technique et les référentiels d’architecture. Participer aux revues techniques?: design reviews, code reviews, validation d’architecture. Contribuer à la mise en place des frameworks et templates facilitant l’industrialisation (boilerplates, CI/CD, observabilité). Accompagner les équipes projet dans leurs conceptions et arbitrer les décisions techniques majeures.
Freelance
CDI

Offre d'emploi
Développeur backend Node.js/Express et Java/ Kubernetes

Publiée le
API
AWS Cloud
Back-end

12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
Expert en développement backend Node.js/Express et Java, avec une maitrise de Kubernetes. Des connaissances frontend seraient un plus mais il s'agit bien d'une recherche de développement backend. La mission est dans le cadre du programme Augmented Renault, le projet Productivity Portal vise à créer le hub central de l’IA du groupe, connecté aux outils du quotidien et orienté productivité. Développement backend sur Node.js / Express et Java Conception d’ APIs et d’architectures microservices (Apigee) Intégration de connecteurs M365, Jira, Teams, SharePoint Environnement Cloud & conteneurs : GCP (GKE) ou AWS , Docker , Kubernetes CI/CD & DevOps : GitLab CI, tests unitaires/intégration/E2E, SonarQube Sécurité & IAM : Vault , Okta Observabilité et performance : Dynatrace Contribution aux usages IA générative (LLM, RAG, prompt engineering) Méthodologies Agile / SAFe , anglais technique requis
Freelance

Mission freelance
Data engineer H/F

Publiée le
AWS Cloud
Azure
Databricks

2 ans
450-490 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer H/F à Paris, France. Contexte : Nous recherchons un Data Ingénieur capable d’intégrer des modèles d’IA générative pour créer des Agents IA connectés et déployé sur AWS ou Azure. A. Interface graphique permettant de construire les modèles et de définir les paramètres de simulation B. Coeur de calcul et outil de calcul connecté aux données big data de nos bases de données C. Outil de croisement des bases de données D. Logiciel de visualisation des résultats de simulation E. Outil de simulation des scénarios de régénération Les missions attendues par le Data engineer H/F : L’objectif est de concevoir et d’opérer une plateforme permettant : •Le déploiement d’agents conversationnels et d’outils d’analyse de texte en temps réel, •L’intégration de modèles LLM, •L’utilisation d’architectures cloud évolutives, robustes et optimisées en coûts (serverless, conteneurs, stockage S3, compute EC2, etc.). •Le ou la candidate contribuera également à l’orchestration des modèles via API Gateway, à l’exécution d’APIs serverless via Lambda, ainsi qu’à la gestion du cycle de vie des modèles via SageMaker (ou équivalent Azure Machine Learning). Les taches de cette mission sont : •Concevoir, développer et maintenir des scripts python robustes et scalables basées sur AWS ou Azure (API Gateway, Lambda Functions, App Services, etc.). •Développer des workflows IA robustes, incluant inference pipeline, gestion des prompts, monitoring et optimisation. •Travailler avec le développeur front Profil(s) le(s) plus à même de remplir la prestation (compétences requises et souhaitées) : • Diplôme universitaire en informatique, en traitement de Langage ou dans un domaine connexe (ou expérience équivalente) • Solide maîtrise de python •Connaissances en bases de données SQL et NoSQL. •Expérience en conception d’API. •Maîtrise des bonnes pratiques de sécurité Web. •Connaissance des pipelines CI/CD, Git, conteneurisation (Docker, Kubernetes). •Atouts : expérience cloud (AWS, Azure, GCP), microservices, tests automatisés. •Capacité à travailler en autonomie tout en collaborant étroitement avec l’équipe. •Bon sens de la communication et esprit de synthèse. •Curiosité et appétence pour apprendre de nouvelles technologies. •Proactivité dans la résolution de problèmes. Environnement technique : AWS/AZUR/Databricks
Freelance

Mission freelance
Un Expert / Référent Technique – Dataiku & Braincube sur Malakoff

Publiée le
Dataiku

6 mois
Malakoff, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients; Un Expert / Référent Technique – Dataiku & Braincube sur Malakoff. Environnement Technique : Plateforme Dataiku en environnement hybride : Cloud AWS (Landing Zone Safran) + On Premise pour données C3 Services : Design Node, Automation Node, API Node, Deployer Node Intégration écosystème Data, stockage pérenne, déport compute EKS / Snowflake Plateforme Braincube : Déploiement Cloud AWS sur EKS Architecture assurée par l’éditeur Braincube Sécurité & Gouvernance : RBAC, SSO/IAM, journalisation, conformité RGPD Documentation & Outils : VS Code, Git, frameworks internes Confluence/SharePoint Data Factory Gestion agile via Teams & backlog Environnements : Dev / Pré-production / Production Processus d’industrialisation et de validation définis Prestation Attendue : Pilotage & gestion du service Maintien des standards, gestion des licences, suivi des usages via KPIs Gestion incidents, demandes, changements ; communication interne & client Définition et suivi des SLAs Optimisation de la performance opérationnelle Architecture & Expertise technique Rôle de référent technique & architectural pour la plateforme Data Groupe (Snowflake, Dataiku, Braincube) Garantie de la résilience du service, gestion des obsolescences Contrôle du niveau de sécurité Roadmap & gouvernance Construction de la roadmap d’évolution Pilotage du plan de charge Coordination France/Inde (prestataires, éditeur, interne) Communication & coordination Communication en cas d’incident, évolution ou maintenance Interface avec DSIC (GCIS, Delivery cas d’usage, etc.) Support & accompagnement Accompagnement des équipes dans l’exploitation Dataiku/Braincube Contribution à la montée en compétence des équipes Expertises Techniques Attendues : Très bonne connaissance des environnements Cloud AWS (S3, EC2, EKS) Maîtrise de Dataiku (DSS, Automation, API, Deployer) Connaissance du ML Ops, IA, Machine Learning et IA générative Bases solides en architecture de données & systèmes d'information Compréhension des modèles de gouvernance Data (RBAC, sécurité, RGPD) Connaissance des problématiques d’exploitation data (flux, SLA, performance) Capacité à structurer une offre de service, un plan de formation et une gouvernance Excellente qualité rédactionnelle (docs d’archi, guides, supports de formation) Capacité à concevoir un business model adapté Livrables : Offre de service documentée, intégrée dans Service Now Météo du service : KPIs incidents, demandes, faits marquants Guide de bonnes pratiques Dataiku & Braincube (standards, modèles, FAQ) Supports de formation et onboarding (slides, démos, exercices) Plan de montée en compétence (par profil) Cartographie des flux et modèles de données cibles Business model défini et validé.
CDI

Offre d'emploi
Data Engineer (F/H) – Domaine de l’environnement - Toulouse

Publiée le

38k-44k €
Toulouse, Occitanie
Télétravail partiel
2 jours de télétravail / semaine - Toulouse - Expérience de 3 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons un(e) Data Engineer pour intervenir chez l’un de nos clients dans le domaine de l’environnement , disposant d’une plateforme Big Data exploitant de très grands volumes de données. Ces données alimentent des algorithmes d’analyse avancée et des services à forte valeur ajoutée (détection d’anomalies, prévisions, aide à la décision). Vous rejoignez une équipe data transverse avec un objectif clair : industrialiser et fiabiliser des traitements Big Data à grande échelle. Vos missions : Au sein d’une équipe Transformation & Modélisation pluridisciplinaire (data engineers, data scientists, développeurs), vous serez amené(e) à : Contribuer à la mise en place et à l’évolution de la stack Big Data Développer des jobs Spark pour l’ingestion, la préparation et l’enrichissement de données massives Alimenter et maintenir les données du data lake ou les rendre disponibles pour des usages IA / ML Travailler avec les outils de conteneurisation et d’orchestration comme Docker, Kubernetes et Helm Enrichir le serving layer et exposer les données via des web services Participer à la mise en production , à la maintenance et à l’amélioration continue des traitements Collaborer étroitement avec les équipes data, IT et métiers Compétences techniques : ️ Expérience confirmée en Data Engineering et traitement de données volumineuses Solide expérience en Java / Maven (J2EE / JDK 17) et Scala Maîtrise de Spark (SQL / DataFrame) pour traiter de grands volumes Bonne connaissance des architectures Big Data et des data lakes Expérience sur des pipelines data industrialisés Sensibilité aux problématiques de performance, robustesse et qualité des données Une connaissance des environnements ML / IA est un plus
CDI

Offre d'emploi
Responsable de projets digitalisation/industrie 4.0 (H/F)

Publiée le

70k-110k €
Chessy, Île-de-France
Télétravail 100%
Rattaché(e) à l'équipe de direction, vous jouez un rôle central dans la convergence IT / OT au sein des usines de votre périmètre. À ce titre, vos missions principales sont les suivantes : - Collaborer étroitement avec les directeurs d'usine, les ingénieurs automatismes, ainsi que les équipes IT et OT corporate afin d'identifier les besoins liés aux projets Industrie 4.0 (SCADA, MES, et autres systèmes digitalisés), - Piloter les partenaires externes (fournisseurs, intégrateurs systèmes) dans la rédaction des spécifications techniques et documents de conception, - Superviser l'installation et la mise en service des nouveaux systèmes industriels, - Valider la conformité des livrables selon les standards qualité et d'exploitation du groupe, - Garantir le respect de l'architecture IT-OT groupe au niveau régional et l'adapter aux contraintes locales si nécessaire, - Mettre à jour et maintenir la feuille de route de digitalisation de chaque site, en cohérence avec la stratégie globale, - Accompagner les équipes locales dans l'application des règles de gouvernance et de cybersécurité OT, - Définir et déployer les stratégies de supervision, d'administration et de sécurisation des infrastructures OT (serveurs, postes, réseaux, automates, SCADA...), - Participer à des projets innovants autour de l'IoT, de l'IA, de la vision industrielle, de la robotique et du cloud, - Piloter les investissements (CAPEX) et la planification budgétaire des projets Industrie 4.0, - Présenter les propositions financières, suivis de projets et résultats auprès de la direction pour validation.
Freelance

Mission freelance
.NET Architect (H/F)

Publiée le
.NET
Azure

3 mois
Paris, France
Télétravail partiel
Contexte projet Dans le cadre d’un programme de transformation d’envergure, nous recherchons un .NET Architect pour accompagner la modernisation d’applications critiques dans un environnement international fortement réglementé. La mission porte principalement sur des activités d’ assessment , de conseil stratégique et de définition de trajectoire projet , autour des technologies Microsoft et des enjeux d’architecture, d’IA et de multilingue. Missions principales Évaluer l’architecture applicative existante et identifier les axes de modernisation Concevoir des architectures .NET et Azure sécurisées et évolutives Définir une roadmap d’intégration des technologies Microsoft AI Concevoir des solutions multilingues adaptées à des déploiements européens Produire les livrables d’architecture (HLD, guidelines, blueprints) Apporter un leadership technique et un accompagnement aux équipes
Freelance

Mission freelance
Architecte Technique Senior – Infrastructures, DevOps & Plateformes B2B Critiques

Publiée le
.NET
Azure
DevOps

1 an
Paris, France
Télétravail partiel
Contexte de la mission Le client engage une transformation majeure de ses systèmes d’information B2B afin de moderniser ses plateformes de vente et de relation client. Une nouvelle équipe IT dédiée aux systèmes Sales & Customers porte des enjeux structurants pour 2026 : Intégration de briques IA pour automatiser et fiabiliser les processus Conception d’architectures scalables et hautement disponibles (offres 24/7, Flex) Ouverture des plateformes à des partenaires externes (tiers, brokers) Renforcement de la sécurité et maîtrise des coûts d’infrastructure L’environnement est critique, fortement industrialisé et orienté performance. Objectifs de la mission Intervenir comme Architecte Technique Senior hands-on , garant de la cohérence globale du SI, des choix technologiques et des standards d’architecture. Responsabilités principales Architecture & Design Définir les architectures Web, Data et IA Garantir la cohérence des composants SI et des frameworks techniques Porter la vision et les standards d’architecture groupe Accompagner les équipes dans les choix structurants Infrastructures & DevOps Piloter l’uniformisation de l’écosystème DevOps Arbitrer et optimiser les choix Kubernetes / App Services Superviser les environnements Docker / Kubernetes Maîtriser les coûts d’infrastructure (FinOps) Sécurité & Exploitation Assurer une vigilance proactive sur la sécurité Superviser la gestion des alertes critiques Contribuer à la résolution rapide des incidents majeurs Collaboration & Pilotage Interaction étroite avec les équipes produit, développement et métiers Vision transverse SI / business Rôle de référent technique senior Livrables attendus Dossiers d’architecture (schémas, diagrammes, patterns) Rapports d’activité Recommandations techniques et standards
Freelance

Mission freelance
LEAD PLATFORM / DEVOPS / SRE AZURE (SENIOR/EXPERT)

Publiée le
Azure
Terraform

6 mois
Guyancourt, Île-de-France
Télétravail partiel
Nous mandatons ce recrutement pour le compte d'un acteur majeur du secteur des services et conseils en informatique (IT). Dans le cadre d’une initiative stratégique, notre client recherche un Lead Platform Engineer / SRE Expert pour piloter la construction d'une "Internal Developer Platform" (IDP) de nouvelle génération. Ce projet ambitieux vise à transformer l'expérience développeur et l'efficacité opérationnelle à travers une approche "Platform as a Product". En tant que Lead, vous serez la pierre angulaire de cette transformation, opérant au cœur d'un environnement technologique de pointe basé sur le cloud Azure. Vos missions principales s'articuleront autour de quatre axes majeurs : Architecture et Leadership Technique : Vous définirez la roadmap technique et l'architecture de la plateforme IDP hébergée sur Azure Kubernetes Service (AKS). Votre rôle consistera à garantir la robustesse, la scalabilité et la sécurité de l'infrastructure. Vous prendrez des décisions structurantes concernant l'implémentation des standards GitOps (via ArgoCD) et la gestion de l'Infrastructure as Code (Terraform/Helm), en assurant une cohérence globale du socle technique. Vous serez le garant de l'évolution de la stack technologique, veillant à ce qu'elle réponde aux exigences de performance d'un environnement de production critique. Culture SRE et Excellence Opérationnelle : Vous insufflerez et maintiendrez les pratiques Site Reliability Engineering (SRE) au sein de l'équipe. Cela implique la définition et le suivi des SLIs/SLOs, la gestion des "Error Budgets" et l'automatisation de la réponse aux incidents. Vous mettrez en place des standards de sécurité élevés (DevSecOps) dès la conception ("Security by Design") pour protéger les actifs numériques du client. Votre expertise sera cruciale pour optimiser la résilience des systèmes et minimiser le "Toil" grâce à une automatisation intelligente. Mentorat et Animation d'Équipe : En tant que référent technique, vous encadrerez les ingénieurs DevOps confirmés et les développeurs de la plateforme. Vous assurerez la montée en compétence de l'équipe sur les technologies Kubernetes avancées, l'observabilité et les concepts d'IDP. Vous favoriserez une culture de collaboration, de revue de code rigoureuse et de partage des connaissances. Vision Produit et Innovation : Vous travaillerez en étroite collaboration avec les parties prenantes pour comprendre les besoins des développeurs (vos "clients internes"). Vous participerez à l'intégration de briques innovantes, notamment l'AIOps et les agents d'IA, pour rendre la plateforme plus autonome et proactive.
212 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous