Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 771 résultats.
Freelance

Mission freelance
Senior Smart Automation & Agentic AI Dev (H/F)

ADSearch
Publiée le
API
AWS Cloud
Azure

3 mois
La Défense, Île-de-France
Contexte de la mission Dans le cadre du développement de nos capacités en Smart Automation et Agentic AI , nous recherchons un Senior Smart Automation Developer afin de concevoir, développer et industrialiser des solutions avancées d’automatisation des processus. Ces solutions s’appuient principalement sur la plateforme Dataiku et sur ses capacités LLM Mesh , permettant l’intégration de modèles de langage et d’agents d’IA dans des workflows automatisés. L’objectif de l’équipe est de créer des automatisations intelligentes capables d’orchestrer les données, les systèmes applicatifs et les agents d’IA afin d’optimiser et de simplifier les processus opérationnels. Le Senior Smart Automation Developer jouera un rôle clé dans la conception technique , le développement et l’ industrialisation de ces solutions. Objectifs et livrables Principales responsabilités 1. Concevoir des solutions d’automatisation intelligente Concevoir des solutions d’automatisation des processus en s’appuyant sur la plateforme Dataiku . Définir des architectures d’automatisation combinant : des pipelines de données l’ orchestration de workflows l’ intégration avec les systèmes applicatifs des agents d’IA Exploiter les capacités LLM Mesh de Dataiku pour intégrer des modèles de langage dans des processus automatisés. 2. Développer des solutions d’Agentic AI Concevoir et mettre en œuvre des agents d’IA capables d’exécuter ou d’assister des tâches au sein de processus automatisés. Développer des workflows intégrant des LLM via Dataiku LLM Mesh . Mettre en place la logique d’orchestration entre : les agents d’IA les pipelines de données les systèmes applicatifs 3. Industrialisation et intégration Concevoir, développer et maintenir des pipelines automatisés et des workflows sur la plateforme Dataiku . Intégrer les solutions d’automatisation avec les systèmes d’information existants via des API et des services applicatifs . Appliquer les bonnes pratiques d’industrialisation : gestion de versions monitoring / supervision automatisation des déploiements gouvernance des workflows 4. Collaborer avec les équipes IT Travailler en étroite collaboration avec les équipes IT en charge des systèmes impliqués dans les processus automatisés. Concevoir les mécanismes d’intégration avec les applications existantes. Contribuer à la définition des patterns d’intégration et des standards techniques . 5. Contribuer à la plateforme Smart Automation Participer à l’évolution de la capacité Smart Automation & Agentic AI . Définir des standards de développement et d’architecture pour l’automatisation. Accompagner / mentorer des profils techniques plus juniors. Promouvoir les bonnes pratiques en matière d’automatisation et d’usage des LLM .
Freelance
CDI
CDD

Offre d'emploi
Data Engineer / Data Ops (H/F)

QODEXIA
Publiée le
Apache Spark
AWS Cloud
Azure

10 jours
46k-48k €
430-450 €
Paris, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Contexte Notre client est un groupe qui constitue un majeur de la transition énergétique, engagé à atteindre la neutralité carbone d’ici 2045. Présent dans plus de 30 pays et fort de plus de 90000 collaborateurs, le Groupe intervient sur l’ensemble de la chaîne de valeur de l’énergie : production renouvelable, infrastructures gazières et services énergétiques. Le COE Data Groupe accompagne les entités du Groupe dans l’industrialisation de leurs usages data, en s’appuyant sur un écosystème moderne construit autour de Databricks. Dans ce cadre, le poste de Data Engineer / Data Ops contribue à concevoir, optimiser et exploiter des pipelines et architectures data fiables, scalables et alignés avec les besoins métiers.
CDI

Offre d'emploi
Cloud Data Engineer AWS H/F

VIVERIS
Publiée le

45k-55k €
Grenoble, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre de projets stratégiques autour de la donnée et de l'intelligence artificielle, un grand groupe industriel renforce ses équipes afin de structurer et valoriser des données issues d'environnements industriels complexes. La mission s'inscrit dans une dynamique de construction et d'optimisation de plateformes data, avec des enjeux forts autour de la qualité, de la volumétrie et de l'exploitation des données pour des cas d'usage avancés (analytics, IA). L'environnement technique repose sur un écosystème cloud AWS, avec des outils modernes de data engineering tels que Databricks et Apache Spark, ainsi qu'une forte culture DevOps. Vous intégrerez une équipe en charge de l'ingestion, du traitement et de l'exposition de données à grande échelle. Responsabilités : - Concevoir et procéder à la maintenance des pipelines de données, de l'ingestion à l'exposition ; - Contribuer à l'optimisation des traitements de données à grande échelle et à la fiabilisation des flux ; - Collaborer avec les équipes data et IA afin de garantir la disponibilité et la qualité des données pour les usages analytiques et machine learning.
Freelance

Mission freelance
Data Analyst

PARTENOR
Publiée le
Dataiku
Google Cloud Platform (GCP)
Gouvernance

1 an
Puteaux, Île-de-France
Notre client réalise une transformation de sa plateforme Data vers la Google Cloud Plateform avec l'adoption de Dataiku en outil de data préparation. Au sein de la direction Intelligence de la donnée, le département Data Management et Business Intelligence a pour objectif de réaliser sa propre transformation et d'accompagner les directions utilisatrices de GCP/Dataiku à exploiter la plateforme dans le cadre défini, de déployer la gouvernance associée et de l'ajuster dans une démarche d'amélioration continue. Nous recherchons un(e) Data analyst pour aider à accompagner cette transformation. Ces travaux mixent des aspects de pilotage, d'accompagnement au changement et de développements BI Data management, Accompagnement au changement, Data-préparation (Dataiku), plateforme GCP.
Freelance

Mission freelance
Cloud Automation & Data Engineering

ROCKET TALENTS
Publiée le
AWS Cloud
CI/CD
Data governance

1 an
360-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Cloud Automation & Data Engineering Contexte général Pour le compte d’un grand groupe industriel international nous recherchons un profil Cloud Automation & Data Engineer afin d’intervenir sur des environnements cloud AWS à forte composante automatisation, DevSecOps et data platforms . La mission s’inscrit dans un contexte de modernisation des plateformes cloud et data , avec des exigences élevées en matière de sécurité, gouvernance et industrialisation . Objectifs de la mission Automatiser et fiabiliser les infrastructures cloud et les services data Industrialiser les déploiements applicatifs et data via des pratiques DevSecOps Concevoir et maintenir des plateformes cloud et data scalables, sécurisées et conformes Accompagner les équipes projets sur les bonnes pratiques cloud & data engineering Responsabilités principales 1. Automatisation des infrastructures cloud Conception et mise en œuvre d’infrastructures cloud as code (Terraform) Automatisation du provisioning et du cycle de vie des ressources cloud AWS Optimisation des environnements cloud (scalabilité, disponibilité, performance) Automatisation des services data AWS (S3, Glue, Kinesis, etc.) Industrialisation et supervision des pipelines data 2. DevSecOps & CI/CD Mise en place et amélioration de pipelines CI/CD Intégration des contrôles de sécurité dans les chaînes de déploiement Automatisation des tests, validations de données, contrôles de qualité et schémas Utilisation d’outils type GitLab, GitHub, Jenkins 3. Platform Engineering & Data Platforms Conception de plateformes applicatives cloud (microservices, serverless, conteneurs) Contribution à des frameworks et outils internes de platform engineering Conception et maintien de composants data : data lake, ingestion, événements Mise en œuvre d’architectures orientées événements et données (Lambda, Kinesis, etc.) 4. Sécurité & conformité cloud/data Implémentation des mécanismes de sécurité (IAM, KMS, chiffrement, contrôle d’accès) Application des politiques de gouvernance et conformité cloud Gestion de la gouvernance data : catalogage, classification, traçabilité, accès Mise en place de politiques de rétention, audit et monitoring des données sensibles 5. Collaboration & expertise Travail en étroite collaboration avec des équipes pluridisciplinaires (DevOps, architectes, sécurité, data) Partage de bonnes pratiques et accompagnement technique Veille technologique et recommandations sur les évolutions cloud & data Formation et mentoring sur les services data AWS et les modèles d’automatisation Compétences attendues Techniques Expertise AWS (infrastructure et services data) Infrastructure as Code : Terraform DevSecOps & CI/CD Conteneurisation et orchestration (Docker, Kubernetes) Architectures serverless et microservices Scripting et développement : Python, Bash, SQL Data engineering : ETL/ELT, data modeling, data lifecycle Gouvernance et qualité de la donnée Connaissance de Snowflake appréciée Transverses Bonne capacité d’analyse et de résolution de problèmes Autonomie et sens de l’industrialisation Bon relationnel et capacité à travailler en environnement complexe Approche pragmatique entre contraintes opérationnelles et ambitions techniques
Freelance

Mission freelance
Technical Project Manager - Cloud

DEVIK CONSULTING
Publiée le
AWS Cloud
Azure
Cloud

1 an
570-700 €
Paris, France
Description Pour le compte de notre client grand compte, Nous recherchons un Chef de Projet Technique expert en Cloud Publique et Privé et la mise en place de Cadre de Gouvernance ainsi que le pilotage d’équipe transverses Tâches principales Piloter la mise en œuvre de solutions cloud-native et hybrides sur des environnements Cloud Public et Privé (idéalement Microsoft Azure ), avec un focus sur les technologies émergentes Traduire les besoins métiers en architectures cloud scalables Collaborer avec les architectes et ingénieurs pour définir les bonnes pratiques client Piloter l’ensemble du cycle de vie projet (du lancement à la clôture) sur des programmes techniques complexes Définir : périmètre, planning, budget et stratégies de gestion des risques Suivre les KPI et garantir le respect des délais et budgets Mettre en place et piloter des frameworks Agile via Jira ou ServiceNow Mettre en place des tableaux de bord et reportings assurant transparence, traçabilité et gouvernance Définir des modèles de delivery et de gouvernance scalables pour des environnements multi-équipes Construire et structurer des équipes cloud performantes à forte séniorité Profil Recherché Expert : Program Managment, ServiceNow, Communication,Change Management, Gestion des parties prenantes, Gouvernance, Avancé : Sécurité Cloud & standards de conformité, Architecture & services Azure Confirmé : Technical Project Managment, Infrastructure et/ou services Cloud, Design de modèle opérationnel, Jira Atlassian Notion: Principes d’architecture d’entreprise, DevOps et pipelines CI/CD, L’Anglais est un plus sur cette mission Lieu : Ile-de-france
Freelance

Mission freelance
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP

PROPULSE IT
Publiée le
Azure
Cloud

24 mois
325-650 €
Paris, France
Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess
CDI

Offre d'emploi
Consultant Sénior Back-End LLM

MGI Consultants
Publiée le
FastAPI
Google Cloud Platform (GCP)
Large Language Model (LLM)

55k-60k €
Paris, France
Rejoignez-nous pour une mission chez notre client du secteur de la restauration basé à Paris 8ème en tant que Consultant Sénior Back-End LLM. En tant que Senior Backend Engineer, vos missions seront les suivantes : Product & Delivery Prendre en charge des fonctionnalités backend complexes de bout en bout, de la conception au déploiement et à l’itération Collaborer étroitement avec les product managers, les ingénieurs frontend et les équipes opérations Concevoir et construire des APIs et services scalables alimentant les outils internes et orientés clients Garantir la fiabilité et la performance des systèmes critiques (commande, paiement, opérations) System Design & Engineering Excellence Concevoir des architectures robustes et scalables sur Google Cloud Platform Améliorer la fiabilité, l’observabilité et la performance des systèmes Écrire du code propre, maintenable et bien testé Animer des discussions techniques et contribuer aux décisions d’architecture et aux bonnes pratiques Améliorer en continu le CI/CD, le monitoring et la résilience des systèmes AI & Innovation Évaluer quand utiliser des LLMs vs des approches de développement traditionnelles selon la fiabilité, la performance, le coût et la maintenabilité Utiliser des outils comme Claude Code, Cursor ou d’autres environnements assistés par IA Prendre des décisions pragmatiques entre build, prompt ou architectures hybrides Contribuer à définir les bonnes pratiques autour de l’ingénierie assistée par IA au sein de l’équipe Mentorat & Impact Accompagner d’autres ingénieurs via des revues de code, du pair programming et du partage de connaissances Élever le niveau de qualité, de performance et de scalabilité du backend Prendre la responsabilité de sujets techniques et mener des améliorations sur l’ensemble de la stack backend Contribuer à une culture d’autonomie, de responsabilité et d’amélioration continue Informations clés : Démarrage : ASAP Lieu : Paris 8 Contrat : CDI chez notre client Télétravail : 2 jours de Télétravail / 3 jours sur site Rémunération : 55/60 K€ selon expérience
Freelance

Mission freelance
Data Scientist – GenAI & RAG - Paris

Net technologie
Publiée le
AWS Cloud
Data science
GenAI

3 mois
Paris, France
Nous recherchons un Data Scientist pour renforcer un centre d’expertise IA dédié à des cas d’usage liés à la vente d’énergie , avec un fort focus sur l’ IA générative . 🎯 Objectif : concevoir, déployer et industrialiser des solutions data & IA à forte valeur métier. 🚀 Missions Cadrage des projets et proposition de solutions data-driven Traitement et exploitation de données structurées & non structurées Conception de modèles ML / Deep Learning / GenAI Développement de solutions basées sur LLM & architectures RAG Mise en place de pipelines (parsing, extraction, normalisation de données) Déploiement sur AWS (SageMaker, Bedrock, S3…) Évaluation des modèles (NLP, RAG, robustesse, hallucinations) Industrialisation (MLOps, monitoring, optimisation des coûts) Communication des résultats & accompagnement métier Mentoring de profils plus juniors
CDI

Offre d'emploi
Développeur Full-Stack JAVA AWS (FH)

ASTRELYA
Publiée le
Angular
Apache Kafka
Apache Spark

Paris, France
Astrelya est un cabinet de conseil franco/suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Ilest composé de 300 experts passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission : En tant que Développeur(se) Fullstack Java AWS, vous interviendrez sur des projets innovants, au cœur des enjeux de transformation de nos clients. Vous participerez à la conception, au développement et à l’industrialisation de solutions modernes, robustes et évolutives. Concrètement vous allez : Concevoir et développer des applications Java / Spring Boot performantes. Contribuer au développement front (Angular, React ou Vue.js selon les projets). Participer à la définition des architectures techniques. Travailler en méthodologie agile au sein d’équipes pluridisciplinaires. Collaborer avec nos experts DevOps, Cloud et Data pour industrialiser et optimiser les solutions. Contribuer à l’amélioration de la qualité du code (tests automatisés, revues, bonnes pratiques). Développer en respectant les bonnes pratiques de production logicielle et de CraftsManship. Votre futur environnement technique : Back-end : Java 21, Spring Boot, API REST, microservices Front-end : Angular / React / Vue.js DevOps : CI/CD (GitLab, Jenkins, Azure DevOps…), Docker, Kubernetes Cloud : Azure, AWS ou GCP Modélisation de données : Kafka Qualité : tests unitaires, tests d’intégration, Sonar, automatisation
Freelance

Mission freelance
Ingénieur en Machine Learning

Sapiens Group
Publiée le
Flask
Gitlab
Google Cloud Platform (GCP)

12 mois
600-650 €
Île-de-France, France
Missions principales En collaboration étroite avec les membres de l’équipe, vous serez en charge de : Développement & Industrialisation Concevoir, développer et maintenir des pipelines de machine learning robustes et scalables Industrialiser les modèles de machine learning en collaboration avec les Data Scientists Déployer des modèles en production via des API REST Data & Infrastructure Structurer et organiser le stockage des données Mettre en place des infrastructures scalables et performantes Garantir la stabilité, la sécurité et l’évolutivité des environnements MLOps & Qualité Construire et maintenir les workflows CI/CD Mettre en place des outils de monitoring et de suivi de performance Participer aux phases de test, notamment A/B testing en production Collaboration & Méthodologie Travailler en étroite collaboration avec les équipes Data et techniques Participer aux rituels Agile (Scrum ou Kanban) Contribuer à la documentation technique Assurer une veille technologique active Objectifs de la mission Développer un premier cas d’usage de personnalisation Déployer ce cas d’usage en production Mesurer et optimiser les performances via des tests A/B Mettre en place un monitoring fiable des modèles Profil recherché Expérience Minimum 5 ans d’expérience en data / machine learning Expérience significative en mise en production de modèles ML Expérience sur Google Cloud Platform Compétences techniques Excellente maîtrise de Python et SQL Solides connaissances en data (structures, architecture, modélisation) Expérience avec Flask ou FastAPI Bonne maîtrise des concepts de machine learning et d’intelligence artificielle Expérience avec des frameworks ML (TensorFlow, scikit-learn…) Connaissances en Infrastructure-as-Code (Terraform) Maîtrise de GitLab et des pipelines CI/CD Environnement technique Cloud : Google Cloud Platform (Vertex AI, BigQuery, Cloud Run…) Langages : Python, SQL Orchestration : Airflow API : Flask / FastAPI CI/CD : GitLab CI/CD Infrastructure : Terraform
CDI
Freelance

Offre d'emploi
Ingénieur Sécurité Data (H/F)

AVA2I
Publiée le
AWS Cloud
Cybersécurité
FortiGate

3 ans
Île-de-France, France
Dans le cadre de l’évolution d’une plateforme Data stratégique au sein d’un grand acteur du secteur de l’énergie, nous recherchons un Ingénieur Sécurité Data pour renforcer la sécurisation d’un environnement multicloud AWS & GCP . L’objectif est de protéger l’ensemble de la chaîne de valeur Data : ingestion, stockage, transformation et exposition des données, tout en garantissant conformité, traçabilité et résilience des infrastructures. 🏗️ Environnement Technique Cloud : AWS & GCP (environnement multicloud) Plateforme Data : Data Lake / Data Warehouse ETL / ELT Orchestration de flux data Sécurité réseau : Firewalls Fortinet / FortiGate Segmentation réseau & sécurisation des flux inter-VPC / inter-projets CI/CD & approche DevSecOps Supervision & monitoring sécurité 🛠️ Missions principales🔒 Sécurité Cloud & Data Sécurisation des architectures Data sur AWS et GCP Mise en place et contrôle des politiques IAM Gestion des accès aux environnements Data Sécurisation des flux d’ingestion et d’exposition des données Application des standards sécurité groupe 🌐 Sécurité Réseau Administration et configuration des firewalls FortiGate Gestion des règles de filtrage, VPN, NAT, IPS Segmentation réseau et sécurisation des flux inter-environnements Analyse et traitement des incidents sécurité réseau
Freelance

Mission freelance
Data Engineer GCP (H/F)

CELAD
Publiée le

1 an
400-440 €
Nantes, Pays de la Loire
CDI / Portage / Freelance - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
CDI

Offre d'emploi
Ingénieur de production Build & Run GCP

CONSORT GROUP
Publiée le
DevOps
Google Cloud Platform (GCP)
Infrastructure

Paris, France
Nous recherchons un IT OPS spécialisé GCP pour intégrer le contexte de l’un de nos clients grand groupe. Principales activités : Accompagner le choix de la solution de stockage adaptée selon les besoins projets (NoSQL, relationnel, document) Optimiser les performances des solutions déployées sur Google Cloud Platform Déployer et configurer les environnements de bases de données : MongoDB, PostgreSQL, Firestore et Cloud SQL Assurer le support technique lors des phases de mise en production Surveiller l'état de santé de la base via Cloud Monitoring Gérer la restauration en cas d'incident Assurer la continuité de service Gérer les alertes et notifications Résoudre les incidents et problèmes de performance Surveiller les métriques de performance (latence, débit, coûts) Gérer l'authentification et l'autorisation des utilisateurs
Freelance

Mission freelance
Cloud Automation & Data Ingénieur junior (H/F)

Insitoo Freelances
Publiée le
AWS Cloud
Bash
Python

2 ans
350-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Cloud Automation & Data Ingénieur junior (H/F) à La Ciotat, France. Les missions attendues par le Cloud Automation & Data Ingénieur junior (H/F) : Automatiser l’intégralité des infrastructures Cloud et des services de données. Industrialiser les déploiements via des pratiques DevSecOps rigoureuses. Concevoir des architectures orientées données (Data Lakes, Streaming) hautement disponibles. Accompagner les équipes projets dans l’adoption des meilleures pratiques Cloud & Data. Responsabilités Principales 1. Automatisation & Infrastructure as Code (IaC) Concevoir et déployer des infrastructures via Terraform. Gérer le cycle de vie complet des ressources sur AWS. Automatiser les services Data (S3, Glue, Kinesis, etc.) et optimiser la performance des environnements. 2. DevSecOps & CI/CD Construire et maintenir des pipelines CI/CD (GitLab, GitHub ou Jenkins). Intégrer nativement la sécurité (contrôles de conformité, scans de vulnérabilités). Automatiser les tests de qualité de données et la validation des schémas. 3. Platform Engineering & Architecture Data Développer des frameworks internes pour faciliter l'usage du Cloud (Serverless, Conteneurs). Mettre en œuvre des architectures orientées événements (Kinesis, Lambda). Assurer l'ingestion, le stockage et la fluidité des flux au sein du Data Lake. 4. Sécurité, Gouvernance & Conformité Piloter la gestion des identités et des accès (IAM) et le chiffrement (KMS). Appliquer les politiques de gouvernance : catalogage, traçabilité et rétention des données. Garantir l'auditabilité et le monitoring des données sensibles. Compétences Requises Cloud : Maîtrise approfondie d'AWS (Core services & Data stack). IaC : Expertise confirmée sur Terraform. Conteneurisation : Docker, Kubernetes. Data Engineering : ETL/ELT, modélisation de données, cycle de vie de la donnée. Développement : Python (avancé), Bash, SQL. Outils : Écosystème CI/CD, la connaissance de Snowflake est un plus significatif.
Freelance
CDI

Offre d'emploi
GenAI Engineer - H/F

AMD Blue
Publiée le
Databricks
Google Cloud Platform (GCP)
IA Générative

3 ans
55k-63k €
550-620 €
Lille, Hauts-de-France
Qui sommes-nous ? Chez AMD Blue , l'innovation est notre passion, et nous sommes fiers de présenter Blue Data . Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Data . Contexte de la mission : Notre client recherche un(e) GenAI Engineer pour piloter l'implémentation de solutions d'IA innovantes au sein du domaine Finance. Au sein d'une équipe pluridisciplinaire (Product Managers, Analytics & BI Engineers, Experts Gouvernance), vous travaillerez à la mise en place d'applications robustes destinées aux contrôleurs de gestion. Descriptif de la mission : Les missions sont : Réalisation et maintien en condition opérationnelle (run) du projet de débrief de la performance hebdomadaire Réalisation de l'analyse des sites non profitables Développement de solutions pour le forecast financier des ventes Collaboration étroite entre les besoins métiers et les contraintes techniques pour livrer des solutions d'IA actionnables
2771 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous