Trouvez votre prochaine offre d’emploi ou de mission freelance CI/CD

Ce qu’il faut savoir sur CI/CD

CI/CD (Continuous Integration / Continuous Delivery ou Continuous Deployment) est une méthodologie DevOps qui automatise les étapes du développement logiciel, depuis l'intégration du code jusqu'à sa mise en production. La Continuous Integration (CI) consiste à intégrer régulièrement les modifications de code dans un dépôt central, suivi d'une série de tests automatisés pour détecter rapidement les erreurs. Cela assure la stabilité et la qualité du code, tout en facilitant la collaboration entre les développeurs. La Continuous Delivery (CD) étend la CI en automatisant la préparation des versions prêtes pour le déploiement. Les équipes peuvent ainsi livrer fréquemment des fonctionnalités à leurs utilisateurs avec un minimum d'efforts manuels. La Continuous Deployment (CD), une étape supplémentaire, pousse automatiquement les modifications validées en production sans intervention humaine, rendant le processus encore plus rapide et fluide. CI/CD est essentiel pour les projets agiles, permettant de réduire les délais de livraison, d'améliorer la qualité des logiciels et de favoriser des itérations rapides en environnement sécurisé.

Votre recherche renvoie 884 résultats.
Freelance

Mission freelance
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF/3 jours TT

Publiée le
Machine Learning
Python

6 mois
410-550 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer / MLops expérimenté ou sénior Lyon (2 jours TT) Python, Pydantic, PymuPDF Compétences attendues : Pipeline de données et de machine learning Compétences en programmation (Python, Pydantic, PymuPDF) Compétences sur les services d’IA d’AWS (sagemaker) et des services AWS (StepFunction, Lambda, SQS, CloudWatch, Textract…) Compétences en computer Vision par réseaux de neurones Outils de DevOps et de Cloud Computing (Terraform) Processus CI / CD Outils d’automatisation Méthodologies agiles (Jira, Confluence, Kanban, Scrum…) Connaissance des principaux LLM dont les modèles Gemini Compétences en optimisation sous contraintes et connaissance d’outils comme ORTools Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Minimum 3 ans d’expérience Profils expérimentés (3 à 7 ans d’expérience) Profils senior (7 ans et +) Missions : Détection d’opportunités IA/ML et contribution à des preuves de concept (POC) (Identifier et analyser des opportunités IA/ML, concevoir et documenter des POC fonctionnels, puis présenter et évaluer leur valeur métier et robustesse auprès des parties prenantes.) Développement de fonctionnalités de Machine Learning et d'IA (Concevoir et valider l’architecture SI, collaborer avec l’équipe produit pour intégrer des fonctionnalités IA/ML, livrer des incréments industrialisables et contribuer à la documentation technique et produit.) Industrialisation et standardisation des pratiques IA / MLOps (Intégrer et déployer des modèles IA avec des formats standard, optimiser leur performance et coût, assurer le monitoring et les mises à jour, contribuer aux pratiques MLOps et réaliser une veille technologique en ML/IA.)
Freelance

Mission freelance
Architecte Java

Publiée le
AWS Cloud
Java
Spring

12 mois
670 €
Paris, France
Télétravail partiel
Cherry Pick recherche pour l’un de ses clients dans le secteur de l’immobilier un(e) Architecte Java . Missions Définir et superviser l’ architecture technique des applications, en particulier la facturation électronique sur l’ERP STUDEA . Concevoir et valider les architectures micro-services , y compris les flux d’intégration et les API REST. Assurer la cohérence technique et la scalabilité des solutions développées par l’équipe. Collaborer avec le Product Owner, les DevOps et les développeurs pour garantir l’application des bonnes pratiques (CI/CD, tests automatisés, qualité du code). Participer aux revues techniques et code reviews pour maintenir un haut niveau de qualité et de performance. Apporter un rôle de conseil et d’expertise technologique , en suivant les évolutions du Cloud AWS, des conteneurs Docker/Kubernetes et des architectures distribuées.
CDI
Freelance

Offre d'emploi
Staff Engineer IA / IA Générative

Publiée le
AWS Cloud
Docker
Git

6 mois
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre de l’accélération de sa stratégie autour de l’Intelligence Artificielle et de l’IA Générative, un groupe industriel international de premier plan recherche un(e) Staff Engineer pour renforcer son équipe AI Activation . Vous interviendrez en tant que référent technique transverse sur plusieurs projets IA stratégiques (Data, Machine Learning, LLM, RAG…), avec un double enjeu : accompagner les projets de bout en bout (de la conception à la mise en production), et contribuer à la définition d’un cadre technique commun garantissant cohérence, sécurité, performance et scalabilité des solutions IA du groupe. Vous serez le garant des bonnes pratiques d’ingénierie et de la qualité globale de l’écosystème technique IA. Objectifs et Livrables : Accompagner et encadrer techniquement plusieurs projets IA / GenAI (design, implémentation, mise en production). Définir, formaliser et promouvoir les bonnes pratiques techniques : MLOps, LLMOps, DevSecOps, architectures cloud. Concevoir des architectures de référence pour les solutions IA, robustes, sécurisées, scalables et maintenables. Industrialiser les usages IA : mise en place de pipelines, intégration dans les chaînes CI/CD, automatisation et monitoring des workloads. Assurer la cohérence technique entre les différents projets IA / GenAI portés par le groupe. Contribuer à la construction et à l’évolution du socle commun “AI Platform” sur lequel s’appuient les équipes projet. Encadrer, coacher et faire monter en compétence les ingénieurs data, ML et software (revues de code, pair design, partage de bonnes pratiques). Assurer une veille technologique active sur les briques IA / GenAI (LLM, RAG, orchestrateurs, vector DB, frameworks, etc.) et proposer leur intégration quand pertinent.
Freelance
CDI

Offre d'emploi
OPS - Devops, DevsecOps

Publiée le
Kubernetes

18 mois
40k-45k €
100-450 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Contexte : Expérience : 4 ans et plus Métiers Fonctions : Etudes & Développement, développement, Spécialités technologiques : Cloud, API, SRE, Devops, DevsecOps Dans le cadre de la transformation de son système d’information, le client a souhaité renforcer ses équipes avec une expertise en ingénierie DevOps / SRE sur un périmètre orienté outillage, forge logicielle, tests et déploiements. MISSIONS La mission consiste à contribuer à l’évolution des pratiques DevSecOps et à l’industrialisation des processus de CI/CD et de mise en production, en appui des équipes de développement et d’exploitation. - Mettre à disposition et faire évoluer les outils et les pratiques associées dans un contexte DevSecOps - Accompagner les utilisateurs (développeurs, experts, OPS, BA, testeurs…) au quotidien : support, conseil, formation - Administrer / superviser les solutions hébergés sur RHEL 8.10, Azure et Openshift - Accompagner les squads sur les dimensions performance, robustesse, sécurité et fiabilité tout au long du cycle de vie des produits SI - Contribuer à la mise à disposition des environnements - Automatiser et industrialiser dans une logique « DevOps » pour servir le déploiement continu - Contribuer à, et garantir, l’exploitabilité et l’observabilité des produits - Préconiser les éléments liés au Capacity planning - Etre garant de la complétude du dossier d'exploitabilité - Contribuer à l'amélioration continue du produit Livrables attendus - Dossier d'architecture (intégration d'éléments d'exploitabilité, d'observabilité et de performance) mis à jour - Dashboard d'observabilité créés - Support d'accompagnement "Modalités d'usage des dashboard" réalisés - Rapport d'incidents rédigés et communiqués aux parties prenantes - Matrices Qualité-Performance complétées Expertise souhaitée COMPETENCES TECHNIQUES - Savoir développer, configurer, déployer et tester les applications en contexte conteneurisé - Savoir configurer et déployer des applications dans le Cloud - Maitriser les principes DevOps et SRE - Maitriser la mise en place l'observabilité permettant de garantir la disponibilité attendue des solutions/produits/services - Savoir évaluer les risques et impacts techniques lors d'une mise en production - Savoir gérer les mises en production des évolutions des solutions/produits/services CONNAISSANCES - De l'hébergement applicatif sous Openshift/Kubernetes, et sur le Cloud Azure - Des principes de base de l'observabilité (supervision, métrologie, ...) - Des bonnes pratiques Devops et/ou SRE - Des méthodes et outils de gestion de configuration - Des démarches d'Industrialisation et d'automatisation CI/CD
Freelance
CDI
CDD

Offre d'emploi
Administrateur Microsoft SCCM H/F

Publiée le
Active Directory
Ansible
Azure

1 an
Monaco
Télétravail partiel
ASTERIA recherche, pour l’un de ses Clients basé sur Monaco, un Administrateur Microsoft SCCM H/F. VOTRE MISSION : Notre Client recherche un Administrateur Microsoft SCCM H/F pour renforcer son équipe Exploitation des Services et support. La mission consiste à être le référent technique en ce qui concerne l’architecture MECM et assurer son maintien en condition opérationnel et de sécurité ainsi que la gestion de ses évolutions. Missions principales : Être garant du bon fonctionnement de l’architecture MECM (On premise, Cloud Management Gateway). Mettre en place la gouvernance, les procédures pour les équipes N2 et les bonnes pratiques (déploiements, habilitations…) Participer et aider à la création des masters et la gestion via Auto-Pilot Administrer MS Intune et AzureAD Être garant de la bonne mise à jour des serveurs et postes de travail liée aux campagnes mensuelles de patching Créer et déployer des Configuration Baselines (CB) et configuration Items (CI) Participer à l’évolution de l’architecture Piloter temporairement des prestataires pour des missions d’expertises bien définies (Evolution de l’architecture MECM…) Mettre en place des rapports (Microsoft SQL Report Server) et savoir communiquer à la direction et au RSSI Être le Référent Technique MECM pour les opérations et l’exploitation Participer au maintien en condition opérationnelle et de sécurité du Système d’information Microsoft on premise et cloud et notamment Active Directory, Azure AD Connect Communiquer en cas de demande de conseil et d’incident auprès du support Microsoft Prendre en compte les aspects liés à la sécurité dans chacune des actions effectuées sur le SI SUPPORT Participer à la résolution des incidents Niveau 3 Adopter une démarche préventive pour éviter ou identifier les sources de problèmes Capacité à trouver les bons interlocuteurs dans les différentes équipes transverses Participer à la mise en place d'un système de gestion de connaissances basé sur la récurrence d'erreurs usuelles Optimiser les performances des systèmes ou des composants ÉTUDES Effectuer des préconisations d'évolution et d'implantation d’outils ou logiciels adaptés Effectuer une veille technologique sur les différents aspects de l'infrastructure système et de communication (matériels, logiciels, architecture, protocole, mode de transferts) Participer à l'architecture technique générale et son évolution ainsi que sa remédiation. AMÉLIORATION CONTINUE Suivre les performances (seuils d'alerte et tuning des ressources et produits du domaine) et les communiquer auprès du management Rédiger des documentations et procédures Niveau 2 à destination de l'exploitation Rédiger des procédures N3 Rédiger, exécuter et valider les procédures Plan de Reprise/Continuité d'Activité (PRA-PCA) Rédiger, exécuter et valider les procédures PRA / PCA Participer à la rédaction des documents techniques de crise
Freelance
CDI

Offre d'emploi
Architecte Data (AWS / Databricks / GénIA)

Publiée le
Architecture
AWS Cloud
Databricks

12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre du développement de ses activités autour de la Data Platform et de l’Intelligence Artificielle Générative , Hextaem recherche un(e) Architecte Data pour intervenir sur la conception, l’industrialisation et la modernisation d’une plateforme Big Data Cloud bâtie sur AWS , Databricks et des services IA avancés. L’objectif est de définir et de mettre en œuvre une architecture scalable, sécurisée et orientée IA , capable de supporter les cas d’usage analytiques, data science et génAI (RAG, copilotes, modèles internes). Missions principales 1. Conception et architecture de la plateforme Data Définir l’architecture cible sur AWS (S3, Glue, Athena, Lambda, Redshift, etc.). Concevoir les pipelines de données dans Databricks (ingestion, transformation, orchestration). Définir les standards de data quality, gouvernance et sécurité (IAM, encryption, lineage). Structurer les environnements (bronze / silver / gold) selon les meilleures pratiques Lakehouse. 2. Gouvernance et performance Mettre en place des patterns de développement et d’industrialisation (CI/CD Data). Superviser la performance des jobs et optimiser les coûts de la plateforme. Assurer la traçabilité et la conformité des données (RGPD, ISO, sécurité). 3. Génération d’intelligence et IA générative Participer à la conception d’architectures hybrides Data + IA Générative (RAG, embeddings, vector stores). Intégrer des modèles LLM (OpenAI, Anthropic, Hugging Face, Bedrock, etc.) aux pipelines existants. Collaborer avec les Data Scientists pour industrialiser les use cases IA. Évaluer la pertinence d’outils de nouvelle génération (LangChain, LlamaIndex, VectorDB, etc.). 4. Conseil, accompagnement et expertise Être le référent technique sur la plateforme Data pour les équipes internes et clients. Accompagner les Data Engineers et Data Scientists dans la mise en œuvre des bonnes pratiques. Participer aux phases d’avant-vente et d’architecture auprès des clients Hextaem. Assurer une veille technologique active sur les sujets Cloud, Big Data et GénIA. Compétences techniques : Cloud & Data Platform: AWS (S3, Glue, Athena, Redshift, Lambda, IAM, CloudFormation/Terraform) Data Engineering: Databricks (Spark, Delta Lake, MLflow), ETL/ELT, orchestration (Airflow, ADF) Gouvernance & Sécurité: Data lineage, catalog (Glue Data Catalog, Unity Catalog), RBAC, encryption Langages: Python, SQL, PySpark CI/CD & DevOps: Git, Docker, Terraform, GitHub Actions / Jenkins IA Générative (bonus) L:LMs (OpenAI, Bedrock, Hugging Face), LangChain, VectorDB, RAG patterns
Freelance

Mission freelance
Ingénieur Intégration Systèmes – Ansible | Rennes | Secteur Défense

Publiée le
Ansible
Bash
Python

1 an
400-550 €
Rennes, Bretagne
Intégrer, configurer et industrialiser des environnements techniques multi-systèmes Concevoir, automatiser et optimiser les déploiements via Ansible / Ansible Tower et scripts Bash/Python Participer à la mise en place et à l’amélioration continue des chaînes CI/CD Préparer, déployer et valider les solutions sur des plateformes sécurisées et critiques Assurer le diagnostic et la résolution d’incidents en phase d’intégration et de déploiement Documenter, standardiser et fiabiliser les procédures pour garantir performance, stabilité et qualité des environnements Contribuer activement à l’évolution des bonnes pratiques d’industrialisation et d’automatisation
CDI

Offre d'emploi
Ingénieur DevOps Azure / .Net - H/F

Publiée le

37k-47k €
Toulouse, Occitanie
Télétravail partiel
Nous recherchons pour l'un de nos clients, acteur majeur du secteur bancaire basé à Toulouse, un Ingénieur DevOps Azure passionné et pédagogue. Vous interviendrez au sein d'une usine logicielle pour accompagner et former les équipes de développement dans leur transformation DevOps. Démarrage souhaité : Décembre 2025 Localisation : Toulouse Vos Missions Accompagner les équipes de développement dans l'adoption des pratiques DevOps et l'utilisation d'Azure DevOps Former et sensibiliser les développeurs aux bonnes pratiques CI/CD, automatisation et industrialisation Concevoir et optimiser les pipelines de déploiement sur Azure DevOps Mettre en place et maintenir l'infrastructure as Code (Terraform, ARM templates) Assurer le support et le conseil technique auprès des équipes Animer des ateliers et sessions de formation sur les outils et méthodologies DevOps Contribuer à l'amélioration continue de l'usine logicielle et des processus de déploiement Garantir la qualité, la sécurité et la performance des chaînes de production
Freelance

Mission freelance
Profil Habilitable - Ingénieur Cloud AWS / DevOps

Publiée le
AWS Cloud
DevOps

6 mois
500-520 €
Corbeil-Essonnes, Île-de-France
Télétravail partiel
Profil habilitable national ou européen habilitable Participer à la conception, au développement et à l’automatisation du déploiement d’infrastructures et d’applications sur le Cloud AWS , ainsi qu’à la migration des environnements existants vers le cloud, dans un contexte sécurisé et hautement disponible. 🔧 Responsabilités Concevoir et mettre en œuvre les architectures Cloud AWS (réseaux, sécurité, stockage, compute, containers). Automatiser la création et le déploiement des environnements (Infrastructure as Code). Accompagner la migration des applications vers AWS (Lift & Shift, refactoring, conteneurisation). Mettre en place et maintenir les chaînes CI/CD pour le déploiement continu. Garantir la sécurité, la conformité et la traçabilité des déploiements selon les exigences d’habilitation. Surveiller la performance, la disponibilité et les coûts des infrastructures cloud (FinOps). Participer aux choix technologiques et à l’amélioration continue des outils et processus DevOps.
Freelance

Mission freelance
DevOps Infrastructure Engineer (H/F)

Publiée le

36 mois
350-450 €
Valence, Auvergne-Rhône-Alpes
Je recherche actuellement pour mon client un.e DevOps Infrastructure Engineer (H/F) L'équipe de mon client supporte les outils et l'infrastructure des équipes de développement (embarqué et serveurs) dans leur mise en place de chaines de CI/CD sur une « stack » applicative commune. L'équipe est constituée de 6 collaborateurs sur deux sites (Suresnes et Valence dans la Drôme). Cette intégration continue est constituée de la « stack » suivante : Jira pour le suivi des tickets ; BitBucket comme gestionnaire de dépôts Git et solution de « code review » ; Jenkins pour l'intégration continue ; Artifactory pour les dépôts d'artefacts ; XRay (plugin Jira) pour les tests ; SonarQube/Blackduck pour le SAST et le SCA. La configuration de ces applications (création d'espaces, gestion des permissions, etc.) est réalisée à l'aide d'un outil interne de « self-service » basé sur les concepts GitOps. L'équipe Software Factory Infrastructure est une équipe IT dédiée, en charge de déployer et maintenir cette solution applicative et son infrastructure. Description L'objectif de la mission est de renforcer l'équipe sur les actions courantes qui sont les suivantes : La gestion du cycle de vie des solutions La documentation et le référencement de chaque changement dans les outils Participer au développement continu de la plateforme de Monitoring (PRTG). Contribuer à notre dynamique d'Infrastructure as a Code via Ansible Automation Platform. Participer à l'automatisation des tâches récurrentes. Assurer la MCO de l'ensemble des services (applications et infrastructure). Contribuer aux divers espaces documentaires. Monter en compétence sur les diverses applications afin de pouvoir accompagner fonctionnellement nos utilisateurs. Environnement technique Infrastructure : VMWare, Ansible, Kubernetes, Ubuntu, Fortigate, VMware Advanced Network Load Balancer, Zerto, PostgreSQL, … IT Tooling : ELK, PRTG, Crowd, Landscape, Kibana, … Applications : Bitbucket, Jira, Confluence, Jenkins, Sonarqube, Artifactory, Blackduck Compétences requises Maitrise des concepts DevOps et GitOps Maitrise de l'administration de système Linux Ubuntu Maitrise des environnements de virtualisation (VMWare & Azure) Maitrise des outils d' « Infrastructure as a Code » (Ansible, Terraform) Maitrise du réseau (Fortinet), Load Balancing, VLAN Expérience avérée en mise en œuvre et gestion d'outils de containerisation (K8S) Connaissance des outils de gestion de log (ELK) et de Monitoring (PRTG) Connaissance en base de données (PostgreSQL) Capacité de planifier et mettre en œuvre Capacité à comprendre et analyser avant d'agir Capacité à prendre en charge le support de ses solutions Connaissance de Git et Jenkins Connaissance d'au moins un langage de programmation (Python) Anglais courant à l'oral et à l'écrit Savoir parler chinois (mandarin) est un plus
Freelance

Mission freelance
Data Engineer GCP

Publiée le
DBT
Google Cloud Platform (GCP)

18 mois
460-530 €
Rennes, Bretagne
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer GCP pour l'un de ses clients dans le secteur de la restauration à Rennes. Missions principales : Développer et maintenir des pipelines de données fiables et évolutives. Assurer un regard critique sur les données et garantir leur qualité ( quality by design ). Mettre en place des contrôles et validations sur les données, comprendre les contraintes métiers et techniques. Collaborer avec les équipes pour estimer le reste à faire , le chiffrage des tâches et la planification des sprints. Travailler dans un environnement agile (Scrum/Kanban), avec suivi dans Jira . Participer à la mise en place des bonnes pratiques DevOps : Git, CI/CD . Collaborer avec les équipes techniques et métiers pour garantir la pertinence des données. Atouts supplémentaires : Expérience industrielle ou traitement de données en temps réel (Pub/Sub). Capacité à proposer des améliorations ou innovations dans les pipelines et la qualité des données.
Freelance
CDI

Offre d'emploi
Architecte GCP

Publiée le
Azure
Datadog
DevSecOps

6 mois
Paris, France
Télétravail partiel
L’ Architecte GCP rejoindra le client au sein de l’équipe Engineering Platform , pour concevoir, automatiser et gouverner les environnements cloud GCP (et partiellement Azure ). Il aura un rôle clé dans la mise en place des landing zones , la définition des standards d’ingénierie , la gouvernance technique cloud et la sécurisation de la plateforme. Ses missions incluent la création de golden paths (templates, pipelines CI/CD, observabilité, sécurité), la standardisation de l’observabilité via Datadog et OpenTelemetry , l’intégration des outils GitHub Actions , SonarCloud et Datadog , et l’accompagnement des équipes de développement dans une démarche DevOps/Cloud Native . Ce poste stratégique requiert une excellente maîtrise de GCP , une approche DevSecOps , des compétences en Terraform , et un leadership technique affirmé dans un contexte de forte industrialisation et de gouvernance cloud à grande échelle .
Freelance

Mission freelance
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF/3 jours TT

Publiée le
Machine Learning
Python

6 mois
410-550 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF Compétences attendues : Pipeline de données et de machine learning Compétences en programmation (Python, Pydantic, PymuPDF) Compétences sur les services d’IA d’AWS (sagemaker) et des services AWS (StepFunction, Lambda, SQS, CloudWatch, Textract…) Compétences en computer Vision par réseaux de neurones Outils de DevOps et de Cloud Computing (Terraform) Processus CI / CD Outils d’automatisation Méthodologies agiles (Jira, Confluence, Kanban, Scrum…) Connaissance des principaux LLM dont les modèles Gemini Compétences en optimisation sous contraintes et connaissance d’outils comme ORTools Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Minimum 3 ans d’expérience Profils expérimentés (3 à 7 ans d’expérience) Profils senior (7 ans et +) Missions : Détection d’opportunités IA/ML et contribution à des preuves de concept (POC) (Identifier et analyser des opportunités IA/ML, concevoir et documenter des POC fonctionnels, puis présenter et évaluer leur valeur métier et robustesse auprès des parties prenantes.) Développement de fonctionnalités de Machine Learning et d'IA (Concevoir et valider l’architecture SI, collaborer avec l’équipe produit pour intégrer des fonctionnalités IA/ML, livrer des incréments industrialisables et contribuer à la documentation technique et produit.) Industrialisation et standardisation des pratiques IA / MLOps (Intégrer et déployer des modèles IA avec des formats standard, optimiser leur performance et coût, assurer le monitoring et les mises à jour, contribuer aux pratiques MLOps et réaliser une veille technologique en ML/IA.)
Freelance

Mission freelance
Ingénieur(e) IA / ML Ops senior

Publiée le
.NET Framework

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 6 ans et plus Métiers Fonctions : Etudes & Développement, Ingénieur Spécialités technologiques : Versionning, Gestion de configuration ML, Monitoring, RGPD, Automatisation des test Compétences Technologies et Outils GitHub CI/CD GIT MISSIONS En tant qu’ingénieur(e) IA / ML Ops senior, vos principales missions sont de : - Gérer le portefeuille de cas d’usage d’IA (ML/deeplearning, IA Gen, agentique) pour un ou plusieurs départements. - Être le référent IA auprès de vos différents interlocuteurs : chef de projets, développeurs, architectes, métiers, partenaires internes et externes. - Accompagner les directions dans le cadrage de leurs cas d’usage et traduire les besoins métiers en spécifications techniques. - Contribuer à la modélisation de votre portefeuille de cas d’usage : - S’assurer que les modèles développés respectent les standards de performance, robustesse, explicabilité et conformité. Garantir que les modèles / cas d’usage développés soient parfaitement industrialisables. - Mettre en place les bonnes pratiques, méthodes de Feature Engineering et de validation des données. - Challenger les approches proposées par les Data Scientists. - Piloter l’industrialisation et le déploiement des modèles IA - Définir et appliquer le cadre ML Ops du groupe : reproductibilité, versioning, automatisation des tests, gouvernance des modèles - Concevoir des architectures IA modulaires, en évaluant en amont ce qui a déjà été développé et en favorisant la mutualisation plutôt que le redéveloppement systématique. Travailler en collaboration étroite avec les autres directions IA pour harmoniser les choix technologiques et accélérer l’industrialisation. - Construire et implémenter les pipelines, CI/CD, monitoring. - S’assurer de la conformité avec les normes internes techniques et réglementaires (cadre normatif / IA act / RGPD). - Garantir la qualité et la conformité - Structurer et diffuser les bonnes pratiques : organisation du code / worflow Git, qualité et tests, ML Ops et reproductibilité (tracking, versioning, CI/CD, orchestration, infra as code, …), sécurité, gouvernance et réutilisabilité, « definition of done », règles d’usage de GitHub Copilot - Auditer et valider les modèles / cas d’usage développés. - Garantir la qualité et la conformité des livrables avant mise en production. - Etablir la traçabilité : documentation, métadonnées, suivi des performances. - Être le point de contact technique privilégié pour les instances de validation. - Encadrer et accompagner les juniors et les collaborateurs dans le domaine de l’IA. - Organiser la montée en compétence progressive et objectivée des juniors. - Jouer un rôle de pédagogue vis-à-vis des métiers pour vulgariser les concepts, les choix technologiques et assurer leur adhésion. - Assurer une veille technologique active sur les outils, frameworks, et paradigmes IA. Proposer de nouvelles solutions / architectures adaptées aux besoins métiers. - Usage Interne / Internal Use - Anticiper les évolutions des réglementations et intégrer les enjeux de responsabilité de l’IA.
Freelance
CDI

Offre d'emploi
Senior Data engineer AWS

Publiée le
Terraform

18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Freelance

Mission freelance
Tech Lead java

Publiée le
API REST
Domain Driven Design (DDD)
Java

3 mois
400-500 €
Lille, Hauts-de-France
Télétravail partiel
Contexte de la mission Dans le cadre du renforcement de nos équipes de développement du produit, nous recherchons un Tech Lead JAVA expérimenté pour assurer la cohérence technique, accompagner les équipes de développement et garantir la qualité des livrables tout au long du projet. Une refonte technique doit être lancée pour augmenter le périmètre des KPI, améliorer la tenue à la charge, les performances et l'APIsation du produit. Le projet est composé de 80% backend / 20% frontend, avec le même niveau d'expertise attendu sur les deux aspects. Organisation : 4 développeurs hybrides (2 experts, 1 confirmé, 1 junior), 1 Tech Lead mi-temps, 1 QA/QE, 1 PO. Sprints de 3 semaines. Missions principales - Définir et faire évoluer l'architecture technique en assurant son alignement avec les standards de l'entreprise - Concevoir les solutions techniques garantissant scalabilité, maintenabilité et performance - Rédiger et maintenir la documentation technique (ADR, diagrammes d'architecture, guidelines) et assurer les choix techniques structurants en collaboration avec les architectes - Accompagner l'équipe via les revues de code et le partage de bonnes pratiques - Organiser des sessions de pair/mob programming - Assurer le mentorat des développeurs - Animer des ateliers techniques réguliers (craftsmanship, clean code, design patterns) - Contribuer activement au développement (20% mini) sur les fonctionnalités complexes ou critiques - Mettre en place et garantir les standards de qualité (tests unitaires, tests d'intégration, couverture de code) - Industrialiser les pratiques DevOps (CI/CD, automatisation) - Intervenir sur la résolution des problèmes techniques complexes, la dette technique et la sécurité - Évaluer la faisabilité technique des user stories et proposer des alternatives - Contribuer à l'estimation de la charge et au cadrage des sprints - Maintenir une veille active sur l'écosystème Java et proposer des évolutions pertinentes - Évaluer et expérimenter de nouvelles technologies apportant de la valeur au projet - Accompagner l'équipe dans l'adoption de nouvelles approches notamment l'IA Stack technique requise - Obligatoire -- Backend: Java 11+ (idéalement Java 17 ou 21), Spring Boot, Spring Framework, JPA, API REST, Maven -- Base de données: SQL (PostgreSQL), MongoDB serait un plus -- Qualité et tests: JUnit 5, Mockito, SonarQube -- DevOps: Git, Github actions, Docker --Architecture / méthode: microservices, architecture hexagonale, event-driven architecture, design patterns, SOLID principles, clean code, DDD, TDD -Souhaitable: Kafka, Cloud GCP (Kubernetes, Terraform), monitoring Datadog, Playwright

Les métiers et les missions en freelance pour CI/CD

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise des pratiques CI/CD pour automatiser l'intégration, le test, le déploiement et la mise en production d'applications, en assurant une livraison continue et fiable dans des environnements Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux implémente et gère des pipelines CI/CD pour automatiser la gestion des configurations et les déploiements d'infrastructure, contribuant ainsi à la fiabilité et à la rapidité des mises à jour.

Lead developer / Tech lead

Le/ La Lead developer / Tech lead supervise l'intégration continue et le déploiement continu au sein des équipes de développement, en mettant en place des pipelines CI/CD efficaces pour améliorer la qualité du code et accélérer le processus de livraison.

Développeur·euse fullstack

Le/ La Développeur·euse fullstack conçoit et développe des applications avec une approche CI/CD, en intégrant des outils d'automatisation pour assurer des déploiements rapides et une intégration fluide entre le front-end et le back-end.

884 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous