Trouvez votre prochaine offre d’emploi ou de mission freelance GitLab CI

Votre recherche renvoie 192 résultats.
CDI

Offre d'emploi
Lead développeur Angular 2 H/F

Publiée le

45k-50k €
Avignon, Provence-Alpes-Côte d'Azur
Vos missions sont les suivantes :* Conception & Développement :- Mettre en œuvre les choix technologiques définis par l'architecture logiciel pour les projets confiés. - Rédiger les stories techniques et coordonner leur évaluation avec les équipes. - Centraliser et mettre à jour la documentation technique de manière rigoureuse. - Collaborer avec le Lead technique pour piloter la capacité de développement. - Contribuer activement à la production de code, dans une logique de qualité et de performance. * Pilotage Technique & Leadership :- Garant de l'estimation réaliste des charges de développement auprès du Product Owner. - Suivre le bon déroulement des sprints selon les méthodes agiles en place. - Veiller à la qualité du code livré et à la cohérence technique globale. - Mettre en œuvre les optimisations techniques nécessaires à une production efficiente. - Participer à la définition et l'évolution des bonnes pratiques de développement. * Sécurité :- Appliquer les politiques de sécurité et s'assurer de leur respect au quotidien. - Veiller à la conformité avec la charte de sécurité de l'information. - Identifier et remonter les éventuels écarts ou vulnérabilités. Environnement technique : - Back-end : Java 8+, Spring Boot, Java J2EE, JPA, Hibernate, REST APIs - Front-end : Angular (16+), Ionic, TypeScript, RxJS, NGRX, HTML5, CSS (tailwind) - Base de données : PostgreSQL - DevOps / CI/CD : Docker, Jenkins / GitLab CI, Kubernetes (bonus) - Outils : Git, Jira, SonarQube, IntelliJ, Debian, Maven, Swagger
Freelance
CDI

Offre d'emploi
Cybersécurité expert / Security Champion

Publiée le
Static Application Security Testing (SAST)
Vulnerability management

1 an
40k-45k €
340-490 €
Île-de-France, France
Télétravail partiel
Cybersécurité expert / Security Champion Suite au déploiement des outils SAST et SCA dans un modèle DevSecOps, les développeurs sont responsables de l'exécution des analyses de sécurité du code et de la gestion des vulnérabilités identifiées tout au long du processus de développement. Les équipes de sécurité applicative, quant à elles, ont pour mission de promouvoir, gouverner et fournir un support pour la stratégie de remédiation de ces vulnérabilités au niveau applicatif. Le Business Application Security Office (BASO) a pour mission d'industrialiser et de standardiser le scan, le contrôle, la surveillance et le support technique à l'échelle de l'ensemble de l'organisation, qui comprend diverses unités métiers réparties sur plusieurs régions. En tant que membre du Business Application Security Office, le Application Security Champion transversal sera attendu pour soutenir, pour un ou plusieurs domaines métiers : Les équipes ADM (développeurs) – les guider dans l'utilisation des scanners de sécurité et dans la remédiation des vulnérabilités identifiées durant les phases de développement des systèmes. Les équipes Business CISO – leur fournir des services de contrôle de scans au moment des releases, assister dans le déploiement de la stratégie de remédiation et contribuer à la standardisation des rapports. Missions principales Support des équipes ADM (développement) pour la remédiation des vulnérabilités et l'adoption des pratiques DevSecOps standardisées (développeurs / ingénieurs DevOps / technical leads) Réaliser des analyses à la demande et fournir des recommandations de remédiation pour les vulnérabilités détectées par les scans SAST (Fortify) et SCA (Nexus IQ). Fournir une assistance technique pour automatiser les scans dans les pipelines CI de développement (Jenkins / GitLab CI). Aider les équipes de développement à interpréter les rapports de sécurité et à prioriser la remédiation des vulnérabilités.
Freelance

Mission freelance
Intégrateur Technique DevOps Aix en Provence

Publiée le
DevOps

6 mois
340-380 £GB
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Intégrateur Technique DevOps Aix en Provence ASAP Le nouveau profil va contribuer à répondre aux demandes transverses d'une équipe Data autour d’un produit phare qui est une plateforme de DataManagement. Tout est à co-construire avec l’équipe en place, les commanditaires, les utilisateurs et les partenaires. Les compétences recherchées par ordre de priorités : - Principes CI/CD en tant que System Team (déploiement des projets, versioning, GitLab) - CI/CD (Git, Concourse, docker , K8S) - API (JSON/XML) : connaissance technique REST/GRAPHQL suffisante pour utiliser un outil d’interrogation d’API (tout sauf postman), analyse des résultats - SQL : Manipulation de base de données, création de vues, découvertes de données, principes de modélisation Nous recherchons un/une intégrateur backend, avec des compétences DevOps, orienté BigData de préférence incluant : - Industrialisation des flux CI/CD d’alimentation de la plateforme de DataManagement. - Développement de solutions automatisant les suivis de production. - Mise en Place de CI/CD : - Développer et maintenir les pipelines des composants de l’équipe. - Participer à l’amélioration continue de la maturité CI/CD de l’équipe et du Centre de Service.
Freelance
CDI

Offre d'emploi
DATA Engineer Senior GCP-python

Publiée le
Gitlab

18 mois
10k-55k €
100-550 €
Paris, France
CONTEXTE Au sein de l’équipe Bronze, la mission se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. MISSIONS : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation du data ingénieur En interaction avec les membres de l’équipe, la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Freelance

Mission freelance
DevOps Senior

Publiée le
AWS Cloud
Gitlab
Helm

3 mois
550-730 £GB
Rennes, Bretagne
Télétravail partiel
🚀 DevOps Senior – Migration Cloud AWS / Kubernetes / Cloud Privé – Rennes / Bretagne – Freelance 🚀 Dans le cadre d’un projet stratégique de transformation Cloud au sein d’un leader européen de l’identité numérique, je recherche en priorité un expert AWS & Kubernetes pour accélérer la migration d’un environnement cloud privé open source (Proxmox / Ceph / Kubernetes Debian) vers AWS (EKS, services managés) . 🎯 Missions principales • Contribuer à la migration vers AWS (EKS, VPC, RDS/Aurora, sécurité, networking) • Industrialiser l’Infrastructure-as-Code ( Terraform : modules, bonnes pratiques) • Participer à la migration MongoDB / MariaDB vers des services managés AWS • Optimiser les pipelines CI/CD ( GitLab , Helm) • Maintenir et faire évoluer un environnement cloud hybride critique • Collaborer avec l’équipe R&D sur l’ authentification automatisée et la signature dématérialisée • Apporter des recommandations pour garder un coup d’avance technologique (dont IA générative) 🛠️ Compétences techniques attendues • Expertise AWS (EKS, RDS/Aurora, VPC, services managés) • Expertise Kubernetes (production, scaling, sécurité, troubleshooting) • Terraform ( autonomie complète indispensable ) • GitLab CI / Helm • Migration de données (MongoDB, MariaDB) • Connaissance des environnements réglementés appréciée (finance, identité, etc.) 👤 Profil recherché • Expérience solide en migration cloud d’applications critiques • Capacité à challenger, structurer et accélérer les décisions d’architecture • Anglais opérationnel (contexte européen) • Excellent niveau de communication & leadership technique 💼 Conditions de mission 📍 Localisation : mission basée à Rennes (35) 💬 Full remote envisageable uniquement si le profil coche réellement toutes les cases (expertise démontrée & forte autonomie), ➡️ Sinon : 3 jours de présentiel par semaine sur site. • Statut : Freelance • Durée : 3 mois renouvelables (stratégie cloud jusqu’en 2027) • Démarrage : ASAP — idéalement dès la semaine prochaine • TJM : selon niveau d’expertise 📩 Candidatures & Recommandations 👉 Envoyez CV / LinkedIn / GitHub à : Confidentialité garantie, réponse rapide.
Freelance
CDI

Offre d'emploi
Administrateur Infrastructure / maintenance et évolution de la plateforme IA

Publiée le
DevOps
Docker

1 an
40k-45k €
250-300 €
Île-de-France, France
Contexte Dans le cadre de sa prestation, l'intervenant externe évoluera au sein de la direction de la Data d'une institution financière majeure, au sein d'une équipe AI Delivery. AI Delivery accompagne les métiers et les pays dans leurs projets de data science et analyse, depuis la génération de use case jusqu'à la mise en production. Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu'une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers la plateforme de Datascience « Sparrow », qui comporte : Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée. Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource facilitant les développements des Data Scientist. Une plateforme d'exécution des modèles de Datascience, Sparrow Serving. Un outil de Community Management, Sparrow Academy. L'équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d'être garante de la qualité des livrables de l'ensemble de la direction, de les déployer sur le cloud privé du Groupe et enfin d'assurer la haute disponibilité de l'ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. Nous faisons appel à une prestation en assistance technique pour assurer l'évolution et la haute disponibilité de l'ensemble de nos assets. Missions Administration/Exploitation/Automatisation système d'exploitation de nos clusters Build et optimisation d'images Docker + RUN de nos 400 containers de production (>500 utilisateurs) Construire, porter la vision technique de la plateforme et piloter les choix technologiques et d'évolution de l'architecture Faire de la veille et se former aux technologies les plus pertinentes pour notre plateforme de data science afin de continuer à innover Rédaction de documents techniques (architecture, gestion des changes et incidents) Production de livrables de qualité et partage des connaissances à l'équipe Participer à la maintenance/l'évolution des frameworks de data science existants (Python) Participer à la maintenance/l'évolution des pipelines de CI/CD (Gitlab CI, GitOps) Participer à la maintenance/l'évolution de l'Observabilité des plateformes (logging, monitoring, traçabilité) Participer à la mise en production des outils et des solutions IA déployées sur la plateforme Être force de proposition et participer aux POCs
Freelance

Mission freelance
Data Platform Engineer – Snowflake / Terraform (Full Remote – Belgique)

Publiée le
Snowflake

6 mois
580 €
Paris, France
Télétravail partiel
Contexte du poste : Dans le cadre du renforcement de ses équipes Data & Cloud, notre client recherche un Data Platform Engineer spécialisé dans la conception, le déploiement et la maintenance d’infrastructures data à grande échelle. L’objectif est de bâtir un écosystème de données robuste, automatisé et sécurisé , supportant l’ensemble des pipelines et applications data de l’entreprise. Le poste est basé en Belgique , mais 100 % remote est possible. Missions principales : Concevoir, développer et maintenir l’infrastructure sous-jacente aux plateformes data (Snowflake principalement). Industrialiser le provisioning et la configuration via Terraform (Infrastructure as Code) . Garantir la scalabilité, la sécurité et la performance de la plateforme data. Mettre en place et maintenir les pipelines CI/CD (Git-based workflows). Gérer la sécurité des secrets et credentials via les outils dédiés (Vault, AWS/Azure/GCP Secret Manager). Collaborer avec les équipes Data Engineering, Cloud et Sécurité pour assurer la cohérence et la fiabilité de la plateforme. Contribuer à la documentation technique, au suivi Jira et à l’amélioration continue du delivery. Compétences techniques requises : Excellente maîtrise de la plateforme Snowflake (architecture, performance tuning, RBAC, best practices). Expertise confirmée en Terraform , notamment pour la création de modules et l’automatisation des déploiements cloud. Expérience sur des workflows CI/CD Git-based (GitHub Actions, GitLab CI, Jenkins...). Maîtrise d’au moins un outil de gestion des secrets : HashiCorp Vault, AWS Secrets Manager, Azure Key Vault ou GCP Secret Manager. Bonne connaissance de l’ écosystème DevOps et des outils de suivi (Jira, Confluence). Profil recherché : 5 à 8 ans d’expérience en ingénierie data ou cloud infrastructure. Solides compétences en Industrialisation et Sécurité des environnements data . Esprit analytique, autonome et rigoureux. Capacité à travailler dans un environnement international et collaboratif. Langue : Anglais courant (obligatoire) .
Freelance

Mission freelance
Développeur / Intégrateur Data Semarchy xDI – Nantes (H/F)

Publiée le
Développement
Intégration

6 mois
480-510 €
Nantes, Pays de la Loire
Télétravail partiel
Nous recherchons un développeur Semarchy xDI passionné par la data et l’intégration pour rejoindre une équipe dynamique au cœur de projets de transformation digitale. Vous participerez à la mise en place et l’industrialisation de flux de données stratégiques, dans un environnement moderne, agile et stimulant. Vos missions Concevoir, développer et maintenir des flux d’intégration avec Semarchy xDI Participer à la modélisation et optimisation des bases de données (SQL, PostgreSQL, Oracle…) Mettre en place des processus robustes d’ ETL/ELT et d’industrialisation (tests, CI/CD, supervision) Collaborer avec les équipes DataOps, BI et MDM (Semarchy xDM) pour garantir la qualité et la fiabilité des données Contribuer à la documentation, au support et à l’amélioration continue Hard Skills Semarchy xDI (ou Stambia) : conception et développement de flux d’intégration SQL avancé : optimisation, tuning, modélisation de données Bases de données : PostgreSQL, Oracle, SQL Server Architecture data : ETL/ELT, batch & streaming Intégration & API : Kafka, Kafka Connect, REST, XML/JSON Outils & environnements : Git, Gitlab CI/CD, Docker/Kubernetes Bonne connaissance des environnements Agile / Scrum Soft Skills (comportementaux) Esprit analytique et rigueur technique Capacité à travailler en équipe multidisciplinaire (Data, Infra, Métiers) Autonomie et proactivité dans la résolution de problèmes Bonnes qualités de communication (écrit & oral) Curiosité technologique, envie de monter en compétences Orientation qualité et amélioration continue
Freelance
CDI

Offre d'emploi
Experts AWS (Plusieurs postes)

Publiée le
Ansible
Architecture
AWS Cloud

12 mois
40k-65k €
500-650 €
Seine-et-Marne, France
Télétravail partiel
Experts AWS – Build, Run, Migration & Sécurité Dans le cadre d’un vaste programme de transformation Cloud, nous recherchons plusieurs Experts AWS pour intervenir sur des missions stratégiques de Build, Migration, Run, Supervision, Bases de données et Sécurité au sein d’environnements critiques et fortement industrialisés. Les consultants interviendront au cœur de la Cloud Platform Team et des équipes de production pour concevoir, automatiser, sécuriser et opérer les assets déployés sur AWS. 📍 Localisation : Villaroche (déplacements ponctuels) 🏠 Télétravail : possible 📅 Démarrage : 01/12/2025 ⏳ Durée : 6 mois renouvelables 🌍 Anglais courant requis 🔎 Profils recherchés Nous recherchons des experts AWS confirmés (4+ ans d’expérience) dans les domaines suivants : 1. Expert Outillage & Automatisation AWS Industrialisation des déploiements et du RUN AWS Terraform / CloudFormation / Ansible Pipelines GitLab CI/CD Automatisation Ops / OS Factory Maîtrise AWS MGN, AWS Systems Manager, Service Catalog 2. Expert Supervision & Observabilité AWS Mise en place et optimisation de CloudWatch, Dynatrace, Centreon Centralisation et analyse (ELK Stack) Définition des KPI, dashboards, alerting Automatisation de la remédiation 3. DevOps AWS Pipelines CI/CD sécurisés Déploiements automatisés (Terraform, Ansible) Haute disponibilité, scalabilité, tests intégrés Participation à la Migration Factory et à l’usine à AMI 4. SysOps AWS Exploitation et MCO d’infrastructures AWS Gestion incidents, PRA, sauvegardes, optimisation coûts/perf Monitoring & alerting (CloudWatch, Dynatrace, Centreon) Automatisation via SSM, Lambda, Terraform 5. Expert Bases de Données AWS RDS, Aurora, DynamoDB, Redshift Optimisation performance, sécurité, haute disponibilité Migrations on-prem → AWS CI/CD bases de données, Terraform, SSM 6. SecOps AWS Implémentation IAM, GuardDuty, Security Hub, Macie, WAF CSPM Prisma Cloud (Palo Alto) Analyse et traitement d’incidents sécurité Compliance : ISO 27001, CIS Benchmark, RGPD Intégration sécurité dans CI/CD et pratiques DevSecOps
Freelance

Mission freelance
Tech Lead Java H/F

Publiée le
Apache Spark
Java

3 ans
Paris, France
Télétravail partiel
Pourquoi cette mission ? Rejoignez la DSI d’un grand groupe bancaire pour piloter la transformation technique des plateformes Risk . Au menu : architectures data & services modernes, industrialisation CI/CD, Kubernetes à l’échelle, qualité logicielle au cordeau — avec un vrai impact sur la performance et la fiabilité du SI Risque. Votre rôle Tech Lead hands-on, vous pilotez la conception et l’industrialisation des produits Risk RRO , vous accompagnez les devs au quotidien et vous êtes le point d’entrée technique des architectes. Vous faites progresser les standards d’ingénierie, sécurisez les mises en production et tenez le cap sur la dette/obsolescences. Missions clés Cadrage & architecture Concevoir des solutions en architectures orientées Data & Services (dont hexagonale ). Contribuer aux choix techniques, challenger les patterns, cadrer les impacts. Engineering & qualité Définir les bonnes pratiques de dev (code review, testabilité, perf, SLO/SLA, qualimétrie Sonar). Mettre en place/faire évoluer les CI/CD (GitLab CI, runners, quality gates, artefacts). Prendre en charge des développements ciblés et les tests (unitaires, non-régression). Run & fiabilité Veiller au bon fonctionnement des applications, suivre les incidents, piloter les corrections. Gérer les obsolescences techniques et planifier les remédiations. Leadership & delivery Animer les rituels (ateliers, points d’avancement), lever les blocages, arbitrer. Faire monter en compétence les équipes de développement (multi-sites). Estimer/chiffrer les solutions, tenir les jalons, produire la documentation technique . Interface & gouvernance Être l’interlocuteur privilégié des architectes pour aligner les évolutions techniques. Garantir la mise en œuvre des préconisations d’architecture au fil des releases. Environnement technique Dev & qualité : GitLab, Artifactory, Sonar Plateformes : Kubernetes , Kafka, Airflow, MapR (Flexible LakeHouse apprécié) Langages & frameworks : Python , Java (Spring), Angular , Spark , Shell Data : DB2 , PostgreSQL , Vertica , Hadoop Livrables attendus Dossiers d’architecture & schémas Pipelines CI/CD industrialisés, artefacts versionnés Code & tests (unitaires, non-régression) + documentation technique Plans de remédiation des obsolescences et comptes-rendus de qualité Notes de cadrage, chiffrages et plans de delivery
CDI

Offre d'emploi
Ingénieur IA H/F

Publiée le

50k-60k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris un Ingénieur IA H/F dans le cadre d'un CDI. En tant que "GenAI Engineer", vous serez le référent GenAI du groupe et interviendrez sur l'ensemble des aspects techniques de nos cas d'usage d'IA générative. Vous évoluerez dans un écosystème technologique moderne (Snowflake, Qlik, AWS) au service de 30 filiales internationales. Vous aurez une grande marge de manœuvre dans les solutions à mettre en place, travaillant en étroite collaboration avec les équipes métier pour accompagner la transformation digitale par l'IA. Vos missions principales Développement et architecture IA Formaliser les besoins métiers et les traduire en spécifications techniques Développer des applications GenAI ou piloter le développement par des prestataires Sélectionner les stacks techniques appropriées à chaque use case d'IA Réaliser des POC sur de nouvelles solutions d'IA générative Opérations et monitoring * Assurer l'observabilité des produits IA et la gestion FinOps * Garantir la qualité des données et l'évaluation des modèles Collaborer avec les équipes architecture, sécurité et domaines métiers Mettre en place des outils de non-régression et d'évaluation continue Innovation et amélioration continue Assurer la veille technologique sur l'IA générative et les agents Maintenir la documentation technique à jour Être force de proposition sur les évolutions technologiques Participer à la stratégie IA du groupe Compétences requises Expertises principales * IA Générative et LLM : Maîtrise des concepts fondamentaux (réseaux de neurones, transformers), familiarité avec les principaux LLM (GPT, Claude, Gemini) RAG et bases vectorielles : Connaissance approfondie des RAG, bases vectorielles (Weaviate, Qdrant), frameworks (LangChain, LlamaIndex) IA Agentic : Maîtrise d'outils (AutoGen, CrewAI, Flowise, Dify) et protocoles (MCP, A2A, ACP, ANP) Développement : Expertise Python, maîtrise SQL, connaissance des APIs et intégrations système Data Engineering : Compréhension forte des enjeux de qualité des données, expérience SGBD (Snowflake de préférence) Compétences techniques appréciées Maîtrise de services cloud d'IA : Bedrock, Azure AI Foundry Connaissance d'AWS (architecture cloud, services managés) Expérience en IA traditionnelle : TensorFlow, scikit-learn Techniques avancées de RAG : chunking, multiindex, méthodes d'inférence Outils d'évaluation : Ragas, DeepEval, frameworks de testing IA Environnement technologique Langages : Python, SQL, notions C/C++ Cloud : AWS (Bedrock, SageMaker), services IA managés Data Stack : Snowflake, PostgreSQL, SQL Server, MariaDB DevOps : GitLab CI/CD, containerisation Collaboration : ServiceNow, Monday, Qlik Cloud Analytics Environnement Cette fonction est rattachée à la DSI du groupe sous la responsabilité du responsable des solutions d'entreprise. Des déplacements ponctuels dans des filiales en France et à l'étranger peuvent être à prévoir dans le cadre des projets de déploiement IA.
CDI

Offre d'emploi
Ingénieur IA H/F

Publiée le

50k-60k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris un Ingénieur IA H/F dans le cadre d'un CDI. En tant que "GenAI Engineer", vous serez le référent GenAI du groupe et interviendrez sur l'ensemble des aspects techniques de nos cas d'usage d'IA générative. Vous évoluerez dans un écosystème technologique moderne (Snowflake, Qlik, AWS) au service de 30 filiales internationales. Vous aurez une grande marge de manœuvre dans les solutions à mettre en place, travaillant en étroite collaboration avec les équipes métier pour accompagner la transformation digitale par l'IA. Vos missions principales Développement et architecture IA Formaliser les besoins métiers et les traduire en spécifications techniques Développer des applications GenAI ou piloter le développement par des prestataires Sélectionner les stacks techniques appropriées à chaque use case d'IA Réaliser des POC sur de nouvelles solutions d'IA générative Opérations et monitoring * Assurer l'observabilité des produits IA et la gestion FinOps * Garantir la qualité des données et l'évaluation des modèles Collaborer avec les équipes architecture, sécurité et domaines métiers Mettre en place des outils de non-régression et d'évaluation continue Innovation et amélioration continue Assurer la veille technologique sur l'IA générative et les agents Maintenir la documentation technique à jour Être force de proposition sur les évolutions technologiques Participer à la stratégie IA du groupe Compétences requises Expertises principales * IA Générative et LLM : Maîtrise des concepts fondamentaux (réseaux de neurones, transformers), familiarité avec les principaux LLM (GPT, Claude, Gemini) RAG et bases vectorielles : Connaissance approfondie des RAG, bases vectorielles (Weaviate, Qdrant), frameworks (LangChain, LlamaIndex) IA Agentic : Maîtrise d'outils (AutoGen, CrewAI, Flowise, Dify) et protocoles (MCP, A2A, ACP, ANP) Développement : Expertise Python, maîtrise SQL, connaissance des APIs et intégrations système Data Engineering : Compréhension forte des enjeux de qualité des données, expérience SGBD (Snowflake de préférence) Compétences techniques appréciées Maîtrise de services cloud d'IA : Bedrock, Azure AI Foundry Connaissance d'AWS (architecture cloud, services managés) Expérience en IA traditionnelle : TensorFlow, scikit-learn Techniques avancées de RAG : chunking, multiindex, méthodes d'inférence Outils d'évaluation : Ragas, DeepEval, frameworks de testing IA Environnement technologique Langages : Python, SQL, notions C/C++ Cloud : AWS (Bedrock, SageMaker), services IA managés Data Stack : Snowflake, PostgreSQL, SQL Server, MariaDB DevOps : GitLab CI/CD, containerisation Collaboration : ServiceNow, Monday, Qlik Cloud Analytics Environnement Cette fonction est rattachée à la DSI du groupe sous la responsabilité du responsable des solutions d'entreprise. Des déplacements ponctuels dans des filiales en France et à l'étranger peuvent être à prévoir dans le cadre des projets de déploiement IA.
CDI

Offre d'emploi
Ingénieur IA H/F

Publiée le

50k-60k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris un Ingénieur IA H/F dans le cadre d'un CDI. En tant que "GenAI Engineer", vous serez le référent GenAI du groupe et interviendrez sur l'ensemble des aspects techniques de nos cas d'usage d'IA générative. Vous évoluerez dans un écosystème technologique moderne (Snowflake, Qlik, AWS) au service de 30 filiales internationales. Vous aurez une grande marge de manœuvre dans les solutions à mettre en place, travaillant en étroite collaboration avec les équipes métier pour accompagner la transformation digitale par l'IA. Vos missions principales Développement et architecture IA Formaliser les besoins métiers et les traduire en spécifications techniques Développer des applications GenAI ou piloter le développement par des prestataires Sélectionner les stacks techniques appropriées à chaque use case d'IA Réaliser des POC sur de nouvelles solutions d'IA générative Opérations et monitoring * Assurer l'observabilité des produits IA et la gestion FinOps * Garantir la qualité des données et l'évaluation des modèles Collaborer avec les équipes architecture, sécurité et domaines métiers Mettre en place des outils de non-régression et d'évaluation continue Innovation et amélioration continue Assurer la veille technologique sur l'IA générative et les agents Maintenir la documentation technique à jour Être force de proposition sur les évolutions technologiques Participer à la stratégie IA du groupe Compétences requises Expertises principales * IA Générative et LLM : Maîtrise des concepts fondamentaux (réseaux de neurones, transformers), familiarité avec les principaux LLM (GPT, Claude, Gemini) RAG et bases vectorielles : Connaissance approfondie des RAG, bases vectorielles (Weaviate, Qdrant), frameworks (LangChain, LlamaIndex) IA Agentic : Maîtrise d'outils (AutoGen, CrewAI, Flowise, Dify) et protocoles (MCP, A2A, ACP, ANP) Développement : Expertise Python, maîtrise SQL, connaissance des APIs et intégrations système Data Engineering : Compréhension forte des enjeux de qualité des données, expérience SGBD (Snowflake de préférence) Compétences techniques appréciées Maîtrise de services cloud d'IA : Bedrock, Azure AI Foundry Connaissance d'AWS (architecture cloud, services managés) Expérience en IA traditionnelle : TensorFlow, scikit-learn Techniques avancées de RAG : chunking, multiindex, méthodes d'inférence Outils d'évaluation : Ragas, DeepEval, frameworks de testing IA Environnement technologique Langages : Python, SQL, notions C/C++ Cloud : AWS (Bedrock, SageMaker), services IA managés Data Stack : Snowflake, PostgreSQL, SQL Server, MariaDB DevOps : GitLab CI/CD, containerisation Collaboration : ServiceNow, Monday, Qlik Cloud Analytics Environnement Cette fonction est rattachée à la DSI du groupe sous la responsabilité du responsable des solutions d'entreprise. Des déplacements ponctuels dans des filiales en France et à l'étranger peuvent être à prévoir dans le cadre des projets de déploiement IA.
CDI

Offre d'emploi
Ingénieur IA H/F

Publiée le

50k-60k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris un Ingénieur IA H/F dans le cadre d'un CDI. En tant que "GenAI Engineer", vous serez le référent GenAI du groupe et interviendrez sur l'ensemble des aspects techniques de nos cas d'usage d'IA générative. Vous évoluerez dans un écosystème technologique moderne (Snowflake, Qlik, AWS) au service de 30 filiales internationales. Vous aurez une grande marge de manœuvre dans les solutions à mettre en place, travaillant en étroite collaboration avec les équipes métier pour accompagner la transformation digitale par l'IA. Vos missions principales Développement et architecture IA Formaliser les besoins métiers et les traduire en spécifications techniques Développer des applications GenAI ou piloter le développement par des prestataires Sélectionner les stacks techniques appropriées à chaque use case d'IA Réaliser des POC sur de nouvelles solutions d'IA générative Opérations et monitoring * Assurer l'observabilité des produits IA et la gestion FinOps * Garantir la qualité des données et l'évaluation des modèles Collaborer avec les équipes architecture, sécurité et domaines métiers Mettre en place des outils de non-régression et d'évaluation continue Innovation et amélioration continue Assurer la veille technologique sur l'IA générative et les agents Maintenir la documentation technique à jour Être force de proposition sur les évolutions technologiques Participer à la stratégie IA du groupe Compétences requises Expertises principales * IA Générative et LLM : Maîtrise des concepts fondamentaux (réseaux de neurones, transformers), familiarité avec les principaux LLM (GPT, Claude, Gemini) RAG et bases vectorielles : Connaissance approfondie des RAG, bases vectorielles (Weaviate, Qdrant), frameworks (LangChain, LlamaIndex) IA Agentic : Maîtrise d'outils (AutoGen, CrewAI, Flowise, Dify) et protocoles (MCP, A2A, ACP, ANP) Développement : Expertise Python, maîtrise SQL, connaissance des APIs et intégrations système Data Engineering : Compréhension forte des enjeux de qualité des données, expérience SGBD (Snowflake de préférence) Compétences techniques appréciées Maîtrise de services cloud d'IA : Bedrock, Azure AI Foundry Connaissance d'AWS (architecture cloud, services managés) Expérience en IA traditionnelle : TensorFlow, scikit-learn Techniques avancées de RAG : chunking, multiindex, méthodes d'inférence Outils d'évaluation : Ragas, DeepEval, frameworks de testing IA Environnement technologique Langages : Python, SQL, notions C/C++ Cloud : AWS (Bedrock, SageMaker), services IA managés Data Stack : Snowflake, PostgreSQL, SQL Server, MariaDB DevOps : GitLab CI/CD, containerisation Collaboration : ServiceNow, Monday, Qlik Cloud Analytics Environnement Cette fonction est rattachée à la DSI du groupe sous la responsabilité du responsable des solutions d'entreprise. Des déplacements ponctuels dans des filiales en France et à l'étranger peuvent être à prévoir dans le cadre des projets de déploiement IA.
CDD
CDI

Offre d'emploi
Expert/admin Kubernetes

Publiée le
Board
Grafana
JIRA

18 mois
20k-40k €
Cesson-Sévigné, Bretagne
Télétravail partiel
CONTEXTE CaaS-CNP est un écosystème de clusters Kubernetes sur site , construit sur Kubernetes standard, avec les technologies laC et GitOps : Cluster-API / Flux (et Terraform/Ansible pour les clusters existants). MISSIONS Dans le cadre des programmes NewCo et Cloud Leap. l'équipe CaaS-CNP a pour objectif de fournir des clusters Kubernetes en tant qu'équipe d'ingénierie de plateforme : • sur plusieurs zones d'hébergement (Azure, Bleu), laissant le moteur flexible ; • avec un ensemble de composants logiciels et d'opérateurs (unités) ; • l'orchestration de tous les composants (clusters et unités) est gérée par l'outil GitOps Flux, pour l'amorçage initial et le cycle de vie (mises à niveau, réconciliation). L'équipe CaaS-CNP est impliquée dans : • La conception des solutions (architecture cloud/Kubernetes, conception globale GitOps, gestion de la sécurité, développement logiciel et Intégration des opérateurs) • Mise en œuvre des solutions (API Cluster, Flux, intégration logicielle, Golang ponctuellement), en collaboration avec d'autres projets transversaux d'Orange. • Exploitation des clusters CaaS-CNP (production, clusters Kubernetes et cycle de vie des composants logiciels). Pour cette mission, vous serez intégré(e) à l'équipe centrale/administration CaaS-CNP et participerez aux activités d'exploitation. Une expérience Kubernetes et GitOps/DevOps est requise. Des astreintes font également partie de la mission. • Kubernetes, API Cluster, AKS • Infrastructures cloud (Azure, OpenStack) • GitOps (Flux), GitLab, pipelines CI/CD • Observabilité (Prometheus, Alertmanager, Grafana, Loki, ...) • HashiCorp Vault • Méthodologies agiles EXPERTISE TECHNIQUE ET/OU MÉTIER REQUIS Architecte Cloud, Ingénieur GitOps Autres compétences : Anglais : Intermédiaire Client d'orientation : Nécessaire Certifications/Habilitations : Administrateur Kubernetes Astreintes ou interventions programmées : Non Habilitation électrique : Non LIVRABLES * Urbanisme Cloud/Kubernetes pour clusters CaaS-CNP (dev et doc) * Conception de composants réutilisables pour nos clusters Kubernetes * Industrialisation (Cluster API, Flux, packaging) des composants logiciels et opérateurs K8S * Documentations techniques et utilisateurs * Contribution au build/run de certains clusters de production (upgrades, support infra) * Contribution au board de l'équipe JIRA et à la formation SAFe de l'entité EXPERTISES TECHNIQUES PARTICIPATIONS • Kubernetes, Cluster-API, AKS • Infrastructures cloud (Azure, OpenStack) • Observabilité (Prometheus, Grafana, Alertmanager, Loki...) • GitOps (Flux), GitLab • Coffre-fort Hashicorp • Terraform/Ansible • Méthodologies agiles Autres compétences : Anglais : Intermédiaire Orientation client : Nécessaire Certifications/Habilitations : Kubernetes Admin Astreintes ou interventions programmées : Non Habilitation électrique : Non
CDI

Offre d'emploi
Data Ops

Publiée le
DevOps
Python

40k-70k €
Levallois-Perret, Île-de-France
Télétravail partiel
Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte - Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée. - Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. - Une plateforme d'exécution des modèles de Datascience, Sparrow Serving. - Un outil de Community Management, Sparrow Academy. L’équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel à une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Dans ce contexte, nous faisons appel à une prestation en assistance technique. les missions sont : - Administration/Exploitation/Automatisation système d’exploitation de nos clusters - Build et optimisation d’images Docker + RUN de nos 400 containers de production (>500 utilisateurs). - Construire, porter la vision technique de la plateforme et piloter les choix technologiques et d’évolution de l’architecture. - Faire de la veille et se former aux technologies les plus pertinentes pour notre plateforme de data science afin de continuer à innover. - Rédaction de documents techniques (architecture, gestion des changes et incidents). - Production de livrables de qualité et partage des connaissances à l’équipe. Notre stack technique : - Infrastructure / DevOps : GitLabCI/CD, GitOps ( ArgoCD ). Cloud privé BNP. - Containers: Docker, Kubernetes. Profil recherché : - Compétences avancées sur Kubernetes (Architecture, Administration de Clusters) - Connaissances sur la gestion des secrets (Vault) - Bonnes compétences réseau : reverse proxy (Traefik), authentification (Keycloak, JWT, OIDC). - Bonnes connaissances de GitLab et des processus de CI/CD. - Connaissances de l’approche GitOps ( ArgoCD ) - Compétences sur l’observabilité dans un contexte Kubernetes ( Prometheus, AlertManager, Grafana ) - Connaissances en bases de données relationnelles (PostgreSQL) appréciées. - Anglais correct à l’écrit et à l’oral. - Profil rigoureux. Les sujets traités par l’équipe sont variés : - Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; - Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; - Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité); - Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; - Être force de proposition et participer aux POCs. Stack Technique de l’équipe : - Langages : Python, Golang, Bash - GNU/Linux - Kubernetes - Observabilité : Prometheus, Thanos, AlertManager, Grafana - Sécurité : Vault - DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize, CUE/Timoni - Cloud services : Certmanager, Redis, Jaeger, ELK, MinIO, PostgreSQL, ClickHouse, External-DNS
192 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous