Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 212 résultats.
Freelance
CDI

Offre d'emploi
Architecte / Tech Lead IA Python

TS-CONSULT
Publiée le
Azure
Tensorflow

1 an
Île-de-France, France
Bonjour a tous, Profil recherché : Solution Architecte expérimenté avec une double compétence Python/IA et maîtrise du vibe coding, capable de concevoir des architectures innovantes tout en accompagnant une équipe de développeurs dans un contexte agile et international. Hard Skills : • 10 ans d'expérience minimum en développement Python avec une expérience confirmée en architecture de solutions IA/ML • Expérience significative en tant que Tech Lead IA avec accompagnement et montée en compétences d'équipes de développement • Expérience démontrée et expertise reconnue en vibe coding avec utilisation avancée d'outils IA (GitHub Copilot, Cursor, Claude, ChatGPT) • Capacité à former et coacher les équipes sur les meilleures pratiques de développement assisté par IA • Expertise confirmée en architecture de solutions IA/ML et intégration de modèles d'intelligence artificielle en production • Maîtrise avancée de Python 3.8+ et des bonnes pratiques de développement • Expertise en frameworks ML/DL : TensorFlow, PyTorch, Scikit-learn, Hugging Face Transformers • Expérience confirmée avec les LLMs (fine-tuning, RAG, prompt engineering, agents IA, orchestration) • Maîtrise des frameworks modernes : FastAPI, LangChain/LlamaIndex, Streamlit/Gradio • Connaissance des architectures microservices, API REST/GraphQL, event-driven, architectures orientées données • Expérience des plateformes Cloud (AWS, Azure, GCP) et services IA Cloud (SageMaker, Azure ML, Vertex AI, Bedrock) • Connaissance approfondie des technologies MLOps et pipelines CI/CD pour modèles IA • Maîtrise SQL et NoSQL, Vector Databases (Pinecone, Weaviate, Milvus) • Expertise en DevOps, automatisation des tests, conteneurisation (Docker/Kubernetes) • Expérience en data engineering et pipelines de données (Airflow, Spark, Kafka) • Connaissance des outils de versioning et collaboration (Git, GitLab/GitHub) • Un plus : Connaissance Java/Spring pour interactions avec legacy systems Soft Skills : • Excellentes capacités de leadership technique et de mentorat • Esprit critique développé face au code généré par IA et capacité à valider la qualité • Pédagogie et capacité à transmettre les bonnes pratiques du vibe coding à l'équipe • Esprit d'innovation et de veille technologique active sur l'IA • Rigueur dans la conception architecturale et les bonnes pratiques • Autonomie et force de proposition • Initiative dans la résolution de problèmes complexes • Très bon relationnel et capacité à communiquer avec différents interlocuteurs (techniques et métiers) • Esprit agile et pragmatique : équilibre entre vitesse et qualité • Capacité à fédérer une équipe autour d'une vision technique Anglais Courant.
Freelance
CDI

Offre d'emploi
Développeur Full Stack Angular / NestJS

VISIAN
Publiée le
Angular
AWS Cloud
Azure

1 an
Paris, France
Missions Le prototype devra couvrir 6 fonctionnalités clés, parmi lesquelles : Digitalisation d’un outil Excel cœur métier (chiffrage d’offres) avec : automatisation, amélioration de la maintenabilité (MCO), historisation des données. Fiabilisation des données de comptage : détection automatique d’anomalies, correction, passage de données discrètes à continues. Croisement de référentiels et données existantes (IoT, relevés terrain, performance énergétique) : détection des dérives de performance, harmonisation du portefeuille. Génération automatique de plans de comptage & synoptiques dynamiques : à partir des équipements réels, avec interface de paramétrages pour cas spécifiques. Interface avancée de création de formules métier & performance, orientée utilisateur non technique (notamment pour la production de baselines de prédictions énergétiques). Interrogation des données métier en langage naturel, avec génération de restitutions graphiques exploitables. Le développeur interviendra comme acteur central du prototype, avec une réelle latitude sur : la conception technique front & back (Angular / NestJS – monorepo NX), les choix d’architecture applicative et cloud, la structuration du socle technique en vue d’une industrialisation ultérieure, la priorisation technique quand nécessaire, au service de la valeur métier. Il est attendu qu’il : avance avec peu d’informations initiales, sache aller chercher, structurer et challenger le besoin directement auprès des interlocuteurs métier et techniques, prenne des décisions argumentées et assumées, même hors cadre standard. Outils & Environnement Développement full stack (≥ 3 ans) : Angular NestJS NX / monorepo Maîtrise opérationnelle d’AWS et/ou Azure : capacité à déployer un environnement cloud complet en autonomie. DevOps / DevSecOps : CI/CD, automatisation, bonnes pratiques de sécurité. Traitement, modélisation et exploitation de données IoT. Pratique avancée du vibe coding : orchestration d’agents, accélération du delivery, approche augmentée du développement. Compétences optionnelles mais fortement appréciées : Infrastructure as Code (IaC) sur AWS et Azure via Terraform. Compétences Data sur Azure Fabric : pipelines, lakehouse, modèles sémantiques. Databricks, avec utilisation concrète de notebooks Python. Culture des architectures data modernes et des plateformes orientées événements. Livrables attendus Prototype EMS fonctionnel et démontrable. Socle Angular / NestJS réutilisable et industrialisable. Environnement cloud opérationnel. Pipelines CI/CD. Documentation technique claire. Démos régulières à destination des parties prenantes métier et techniques.
Freelance

Mission freelance
DEVELOPPEUR(SE) IA

Les Filles et les Garçons de la Tech
Publiée le
Azure
Azure AI Foundry
Copilot

12 mois
400-550 €
Île-de-France, France
En collaboration étroite avec le chef de projet et l'architecte IA, vous aurez pour mission principale de concevoir, documenter et mettre en œuvre les évolutions du portail IA interne. Vos responsabilités couvriront : Développement Front-End : Améliorer l'interface utilisateur pour offrir un accès sécurisé aux assistants IA selon les profils, intégrer un parcours d'accueil, une FAQ et des modules de formation. Développement Back-End & API : Permettre aux utilisateurs de créer et d'exposer de nouveaux assistants (avec gestion des droits d'accès), maintenir les mécanismes de suivi de la consommation d'IA (FinOps) et gérer l'exposition des assistants via API pour les applicatifs métiers. Expertise RAG et Données : Accompagner les utilisateurs dans la création de leurs bases de connaissances en concevant des pipelines d'ingestion optimisés. Vous mettrez en place des outils pour tracer la qualité des données ingérées et des réponses générées. Déploiement et CI/CD : Assurer la livraison des évolutions sur les différents environnements, gérer le versioning , définir les tests de validation, maintenir la documentation à jour et effectuer d'éventuelles corrections à chaud. Création et Support : Concevoir des assistants IA « modèles » préconfigurés pour répondre aux besoins spécifiques des utilisateurs non techniques, et assurer l'assistance technique et la résolution des incidents (support de niveau 2 et 3).
Freelance

Mission freelance
📩 Data Engineer Microsoft Fabric

Gentis Recruitment SAS
Publiée le
Azure
Azure Data Factory
CI/CD

12 mois
Paris, France
Contexte Dans le cadre de la modernisation de sa plateforme data, un grand acteur du secteur de l’énergie renforce ses équipes data pour accompagner le déploiement de solutions basées sur Microsoft Fabric . L’objectif est de structurer une architecture data moderne, scalable et orientée métier, afin de répondre aux enjeux de valorisation des données (trading, consommation, production, performance énergétique). Missions Concevoir et développer des pipelines de données sur Microsoft Fabric Participer à la mise en place d’une architecture data (Lakehouse, Medallion Architecture) Intégrer et transformer des données issues de multiples sources (IoT, marché, SI internes) Optimiser les performances et la qualité des données (data quality, monitoring) Collaborer avec les équipes métiers (trading, risk, opérations) pour répondre aux besoins analytiques Contribuer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Stack technique Microsoft Fabric (OneLake, Data Factory, Synapse, Power BI) Azure (Data Platform) Python / PySpark / SQL Data Lake / Lakehouse Git / CI-CD
Freelance

Mission freelance
Data Engineer Python / Azure Cloud (H/F)

Gentis Recruitment SAS
Publiée le
Azure
Data Lake
ETL (Extract-transform-load)

12 mois
Paris, France
Dans le cadre d’un projet au sein de la Digital Factory d’un grand groupe international du secteur de l’énergie , nous recherchons un Data Engineer expérimenté pour concevoir et mettre en place des pipelines de données dans un environnement Azure Cloud serverless . Contexte La Digital Factory du groupe (plusieurs centaines de collaborateurs, organisation en squads internationales) développe et déploie des solutions digitales afin de soutenir les activités du groupe à l’échelle mondiale. Missions Concevoir et développer des pipelines de données en Python Mettre en place des traitements batch et orchestrations via Azure Durable Functions Manipuler des volumes de données importants (Parquet) Mettre en place des contrôles qualité et validations de schémas Intégrer des API externes Participer à la modélisation et optimisation des bases Azure SQL Implémenter l’ observabilité (logs, métriques, traces) Industrialiser les déploiements via CI/CD Garantir la qualité et la sécurité du code (tests automatisés, scans) Stack technique Python Azure Cloud Azure Functions (Durable Functions v2) Data Lake / Blob Storage / Azure DB Pandas, Polars, PyArrow Profil recherché Minimum 6 ans d’expérience en Data Engineering Forte expertise Python & Azure Expérience sur architectures serverless Capacité à travailler en environnement agile / squad Anglais courant Informations mission Démarrage : mi / fin mars 2026 Durée : 12 mois Localisation : Paris Télétravail : 2 jours / semaine Processus de sélection Test technique (Codingame) à réaliser sous 72h Échange technique avec l’équipe projet
Freelance
CDI

Offre d'emploi
Expert en Administration de Bases de Données

EterniTech
Publiée le
Azure
CI/CD
Microsoft SQL Server

3 mois
Île-de-France, France
Dans le cadre de sa transformation digitale je cherche un Expert en Administration de Bases de Données pour renforcer une équipe technique pour la gestion des bases de données en production, principalement MS SQL Server, dans un environnement hybride incluant des services cloud (AWS et Azure). L’objectif est de garantir une gestion optimale, sécurisée et évolutive des bases de données, tout en automatisant un maximum de processus grâce à des scripts et à des outils de surveillance. L'expert en bases de données jouera un rôle clé dans l'optimisation des performances des systèmes, la mise en place de solutions de sécurité robustes et l'intégration de pratiques DevOps pour améliorer les cycles de développement et de déploiement. Réalisations attendues : Le consultant sera chargé de plusieurs missions, notamment : Gestion des bases de données MS SQL Server : Conception, administration et optimisation des bases de données MS SQL Server en environnement de production, avec un focus sur la gestion des performances, la disponibilité et la capacité. Automatisation des tâches administratives : Développement de scripts (Bash, Python, PowerShell) pour automatiser les tâches courantes comme les sauvegardes, la gestion des logs, et les mises à jour des bases de données. Surveillance des bases de données et de l'infrastructure : Mise en place et gestion d'outils de surveillance (Zabbix, Prometheus, Grafana, OEM) pour suivre la santé et les performances des bases de données en temps réel, avec des alertes proactives pour gérer les incidents. Sécurisation des bases de données : Gestion des rôles et permissions, mise en place de stratégies de chiffrement et d’audit pour garantir la confidentialité et la conformité des données. Déploiement continu (CI/CD) : Implémentation et gestion des processus CI/CD via Azure DevOps pour automatiser le déploiement des bases de données, en intégrant des bonnes pratiques DevOps. Gestion des services PaaS sur les clouds Azure et AWS : Gestion des bases de données PaaS sur Azure (Azure SQL Database, Managed Instances) et AWS (RDS), y compris leur configuration, optimisation et supervision. Technologies demandées : Bases de données : MS SQL Server PaaS : Azure SQL Database, Azure Managed Instances, AWS RDS Scripting et Automatisation : Bash Python PowerShell Surveillance et Monitoring : Zabbix Prometheus Grafana OEM Cloud : Azure : Azure SQL Database, Managed Instances AWS : AWS RDS CI/CD : Azure DevOps (pour l'intégration continue et le déploiement) Sécurité des bases de données : Chiffrement de données : Transparent Data Encryption (TDE) Gestion des rôles et permissions Audit des accès et des modifications Profil recherché : Expérience : Minimum de 5 ans dans l’administration de bases de données, avec une forte expérience sur MS SQL Server et dans les environnements cloud (Azure et AWS). Compétences techniques : Expertise en gestion de bases de données, automatisation des tâches, sécurité des données, et dans l’utilisation d'outils de surveillance. Autonomie et réactivité : Capacité à gérer des incidents de manière proactive en environnement de production.
Freelance
CDD

Offre d'emploi
Senior Smart Automation Developer (Dataiku / Agentic AI) H/F

SMARTPOINT
Publiée le
AWS Cloud
Azure
Dataiku

12 mois
60k-70k €
600-700 €
Île-de-France, France
Dans le cadre d'un projet de développement des capacités en Smart Automation & Agentic AI , notre client renforce son équipe avec un Senior Smart Automation Developer . Son ambition : concevoir des automatisations intelligentes capables d’orchestrer les données, les systèmes applicatifs et les agents IA , afin d’optimiser et transformer les processus métiers. Vous interviendrez sur des projets innovants basés sur la plateforme Dataiku et ses capacités LLM Mesh , au cœur des enjeux d’IA générative et d’automatisation avancée.
Freelance
CDI

Offre d'emploi
📩 Data Engineer / DevOps – Data Platform

Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

1 an
Paris, France
Contexte de la mission Dans le cadre du développement d’une Data Marketplace interne , notre client construit une plateforme centralisant l’ensemble du parcours data (discovery, qualité, gouvernance, transformation, monitoring, BI). Déjà déployée auprès de premiers utilisateurs, la plateforme entre dans une phase de scalabilité et d’industrialisation avec un objectif de déploiement à grande échelle (plusieurs milliers d’utilisateurs à l’international). Vous intégrerez une équipe produit data avec des enjeux forts autour de la performance, de la qualité des données et de l’expérience utilisateur. Objectifs & livrables Développement et optimisation de pipelines data complexes Mise en place de process de data quality Contribution à une architecture scalable et modulaire Industrialisation des flux (CI/CD, automatisation) Documentation technique et participation aux choix d’architecture Missions principales Data Engineering Développer et maintenir des pipelines (batch & streaming) Gérer l’ingestion multi-sources (API, bases, streaming) Optimiser les performances (latence, volumétrie, retry) Implémenter des contrôles de qualité et de traçabilité Backend & Architecture Concevoir une architecture data modulaire et scalable Développer des composants réutilisables Garantir la maintenabilité et la qualité du code DevOps & Industrialisation Mise en place de pipelines CI/CD Automatisation des déploiements Gestion des environnements cloud Collaboration Travail étroit avec PO, data engineers et équipes métiers Participation aux rituels agiles et code reviews Stack technique Data Python, Scala Spark Kafka / Kinesis / EventHub Airflow, DBT Cloud AWS (Lambda, Glue, Step Functions, Redshift, DynamoDB) Azure (Functions, CosmosDB) DevOps Docker, Kubernetes CI/CD (GitLab CI, Jenkins, GitHub Actions) Terraform, Ansible Observabilité Prometheus, Grafana, ELK, Datadog
Freelance
CDI

Offre d'emploi
DevOps Engineer IA

TS-CONSULT
Publiée le
Azure
Nosql
Tensorflow

1 an
Île-de-France, France
Bonjour a tous je suis a la recherche d'un profil DevOps Engineer IA pour l'un de mes clients, Profil recherché : DevOps Engineer avec expertise en MLOps et maîtrise du vibe coding, capable de construire et maintenir des infrastructures robustes pour l'IA tout en automatisant les déploiements et en garantissant la performance des solutions en production. Compétences requises Hard Skills : • 5 ans d'expérience minimum en développement Python avec focus IA/ML • Expérience démontrée en vibe coding avec utilisation productive d'outils IA (GitHub Copilot, Cursor, Claude, ChatGPT) • Expertise en frameworks ML/DL : TensorFlow, PyTorch, Scikit-learn, Hugging Face, LangChain • Expérience confirmée avec les LLMs (fine-tuning, prompt engineering, RAG, agents) • Maîtrise des plateformes Cloud (AWS SageMaker, Azure ML, GCP Vertex AI) • Connaissance des technologies MLOps et pipelines CI/CD pour modèles IA • Compétences en data engineering (preprocessing, feature engineering, pipelines de données) • Maîtrise des bases de données (SQL, NoSQL, Vector DBs) • Expérience en développement d'APIs (FastAPI, Flask, REST) • Bonne connaissance de la conteneurisation (Docker, Kubernetes) • Expertise en testing et qualité du code (pytest, unittest, code coverage) • Connaissance des outils de versioning (Git, GitLab/GitHub) • Un plus : Expérience en Computer Vision et/ou NLP Soft Skills : • Esprit critique développé face au code généré par IA • Capacité à décomposer des problèmes complexes et à formuler des prompts efficaces • Curiosité intellectuelle et veille technologique active sur l'IA • Pragmatisme : équilibre entre vitesse de développement et qualité • Rigueur dans la validation et l'optimisation du code • Autonomie et force de proposition • Excellent relationnel et capacité à travailler en équipe • Esprit agile et adaptatif • Capacité à partager ses connaissances et best practices Résultats attendus (Livrables) • Participation aux workshops avec les équipes IT/métiers et les Data Scientists • Développement et optimisation de modèles IA/ML pour les use cases métiers • Intégration et déploiement des modèles en production (APIs, microservices) • Utilisation experte du vibe coding pour accélérer le développement sans compromettre la qualité • Mise en place de pipelines MLOps (entraînement, versioning, monitoring) • Tests automatisés et validation des modèles (performance, robustesse, biais) • Documentation technique détaillée (code, modèles, APIs, prompts réutilisables) • Optimisation des performances (latence, coûts, scalabilité) • Veille technologique et recommandations sur les nouvelles techniques IA • Partage des best practices de vibe coding avec l'équipe
CDI

Offre d'emploi
QA Automation Python / Azure

KOUKA
Publiée le
Gherkin
Jenkins
Méthode Agile

45k-60k €
Île-de-France, France
Conception et développement de tests automatisés en Python Automatisation des tests API / back-end Mise en place et maintenance des pipelines de tests Intégration des tests dans les pipelines CI/CD (Azure DevOps) Participation à la stratégie de test Contribution à l’amélioration continue de la qualité Collaboration étroite avec les équipes dev, PO, QA, DevOps Python (automation QA) Frameworks de test (ex : Pytest , Behave , Robot Framework ) Tests API ( Postman , REST , JSON , Swagger ) Azure (Azure DevOps, pipelines, environnements cloud) CI/CD SQL apprécié Git
CDD
CDI
Freelance

Offre d'emploi
Chef de projet technique création d'un portail IA

KEONI CONSULTING
Publiée le
Azure
Python
RAG

18 mois
20k-60k €
100-550 €
Paris, France
Contexte du besoin : Le client cherche à structurer ses projets de valorisation des données et d’innover au travers de l’accès à différentes IA. L’équipe Gouvernance et mise en oeuvre de l'IA, est à ce titre, en charge de la mise en œuvre. l’équipe Gouvernance et mise en oeuvre de l'IA est en charge : - de gouverner l’utilisation des IA au sein de l’entreprise - de définir une stratégie d’utilisation des IA génératives en fonction des risques ou de contraintes portées par les données sources - d’optimiser les coûts d’utilisation à tout moment dans un contexte Cloud (FINOPS / MLOPS) - de mettre en place une chaîne CI/CD des projets IA MISSIONS Au sein de l’équipe ""Gouvernance et Mise en oeuvre de l'IA"" composée de 6 personnes, l'assistance technique a pour objectifs d'effectuer la maintenance corrective et évolutive du portail IA . Une bonne partie de nos utilisateurs étant non techniques et peu familiarisés avec l'IA, il lui sera demandé d'aider à la réalisation ou à la mise au point des prompts à partir des besoins exprimés par les utilisateurs. Il sera amené à prendre en charge les tickets d'incidents ou d'assistance de niveau 1 (voire 2 selon profil) aux utilisateurs du portail. Cette mission pourra impliquer de collaborer avec d'autres compétences d’experts techniques ou fonctionnels, en dehors de l'équipe, en fonction des thématiques traitées. Un bon relationnel est indispensable afin de savoir prêter assistance à utilisateurs non technique, notamment en sachant adapter son discours et aider à la rédaction de la documentation. TACHES - La maintenance adaptative et corrective de la partie Front du portail IA : o en mettant à jour ou en améliorant le catalogue d’assistant IA existant en fonction des besoins utilisateurs o en proposant des pistes d'améliorations à apporter aux IHM pour améliorer l'expérience utilisateur - La maintenance corrective de la partie Back du portail IA permettant : o la création et l'exposition de nouveaux assistants IA par les utilisateurs avec contrôles d'accès o la maintenance et l'évolution des mécanismes de supervision et de suivi de consommation d'IA par les utilisateurs o la maintenance et l'évolution des mécanismes d'exposition des assistants IA en API pour utilisation par les applicatifs métiers - La réalisation d’assistants IA préconfigurés en fonction des types de besoins remontés par les ambassadeurs IA et les utilisateurs non techniques o en réalisant des assistants IA à partir d'expressions de besoins fournis o en apportant des améliorations à l'ingestion de documents ou de bases de connaissances afin d'améliorer la qualité des réponses en sortie des assistants ou agents IA o en proposant des améliorations des prompts utilisateurs pour améliorer la précision du résultat ou diminuer les coûts - L'assistance technique et la résolution d'incidents en cas de remontée de dysfonctionnements de la plateforme (support niveau 1 & 2 selon profil) o en analysant la cause du dysfonctionnement à partir des logs applicatives (avec escalade vers les autres membres de l'équipe au besoin) o en proposant des mises à jour du parcours d’accueil et d'accompagnement des utilisateurs afin de limiter les causes de remontées des utilisateurs o la mise à jour de la FAQ en fonction des retours des utilisateurs" PROFIL : Une expérience significative d'environ 6 mois de RAISE, ou de sa stack applicative, est un prérequis indispensable au démarrage de la mission (Python, React, Langchain, LangGraph, LangFuse, FastAPI, Celery/Redis, RAGAS, Docling (PDF/OCR), Docker)
CDI
Freelance

Offre d'emploi
Ingénieur devOps (H/F)

Aleysia
Publiée le
Ansible
AWS Cloud
Azure

12 mois
Grenoble, Auvergne-Rhône-Alpes
Les bonnes pratiques DevOps n’ont plus de secret pour toi et tu souhaites mettre à profit ton expertise dans des projets innovants ? C’est sans doute toi qu’on attend pour compléter notre équipe en intégrant ce poste d’ Ingénieur DevOps ! 🚀 Ton challenge si tu l’acceptes : Accompagner les équipes de développement et d'infrastructure dans l'implémentation des pratiques DevOps Concevoir et maintenir les pipelines CI/CD Automatiser le déploiement et certaines procédures afin d'optimiser la gestion des infrastructures Assurer le bon fonctionnement, la disponibilité ainsi que la sécurité des systèmes et des applications Contribuer aux décisions d'architecture et faire preuve d'une expertise auprès de nos clients Gérer les incidents et problèmes liés aux environnements de production
Freelance

Mission freelance
DevOps (GCP / Terraform / Python / VueJS)

ESENCA
Publiée le
Azure
Google Cloud Platform (GCP)
Python

1 an
Lille, Hauts-de-France
🧭 Contexte & objectif Dans le cadre du développement de plateformes cloud internes, vous participez à la conception et à l’évolution de solutions permettant aux équipes de déployer rapidement leurs environnements sur le cloud public. Ces plateformes, basées sur des principes de self-service , offrent des environnements préconfigurés, sécurisés et automatisés afin d’accélérer le déploiement des applications. 🚀 Missions principales🔧 Développement Concevoir et développer des composants backend (Python) et frontend (VueJS) Développer des solutions d’ Infrastructure as Code (Terraform) sur GCP principalement Participer à l’évolution des plateformes cloud (type Landing Zone) Développer des outils d’ automatisation réseau (firewall, opérations réseau) Implémenter des API et services backend 🏗️ Architecture & conception Proposer des solutions techniques basées sur les services natifs des cloud providers Concevoir des architectures cloud natives, sécurisées et automatisées Participer aux revues de code et d’architecture Contribuer à la définition des standards techniques et bonnes pratiques ✅ Qualité & tests Mettre en place et maintenir des tests automatisés et unitaires Garantir la qualité, la performance et la maintenabilité du code 🛠️ Maintenance & support Corriger les anomalies et bugs Maintenir et améliorer les solutions existantes Accompagner les équipes dans l’utilisation des plateformes 🧠 Compétences techniques🔥 Impératives GCP (niveau expert) Terraform (niveau expert) Python (niveau expert) VueJS / Frontend ➕ Importantes Azure (niveau confirmé) 🌍 Langues Français courant (impératif) Anglais professionnel (souhaité)
CDI
Freelance

Offre d'emploi
Data Engineer Snowflake Sénior (H/F)

Panda Services
Publiée le
Apache Airflow
Azure
CI/CD

6 mois
Paris, France
Panda Services est une Entreprise de Services du Numérique spécialisée en Ingénierie Informatique, présente sur le marché depuis plus de 20 ans, réalisant pour ses clients des prestations de haut niveau en assistance technique. Nous sommes à la recherche d’ un(e) Data Engineer Snowflake Sénior, pour l'un de ses clients basé à Paris. Localisation : Paris Contexte de la mission Dans le cadre du renforcement de notre équipe data, nous recherchons un Data Engineer expérimenté pour intervenir sur la conception et l’optimisation de pipelines de données au sein d’une architecture moderne orientée cloud. 🎯 Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables Modéliser et structurer les données dans Snowflake Assurer l’intégration et la transformation des données via Dataiku Optimiser les performances et les coûts des traitements de données Mettre en place des bonnes pratiques de qualité, gouvernance et sécurité des données Collaborer avec les équipes Data Science, BI et métiers Participer à l’industrialisation des workflows data 🛠️ Compétences techniques requises Excellente maîtrise de Snowflake (data warehouse cloud) Expérience confirmée sur Dataiku (DSS) Bonne maîtrise de SQL et des concepts de modélisation de données Expérience avec des outils ETL / ELT Connaissance des environnements cloud (AWS, Azure ou GCP) Maîtrise de Python appréciée Expérience en CI/CD et data pipelines (Airflow, dbt est un plus) 👤 Profil recherché Minimum 7 ans d’expérience en Data Engineering Forte capacité d’analyse et de résolution de problèmes Autonomie et proactivité Bon relationnel et capacité à travailler en équipe Expérience en environnement agile
Freelance
CDI

Offre d'emploi
DevOps Engineer IA

TS-CONSULT
Publiée le
Azure
Terraform

1 an
Île-de-France, France
Bonjour a tous , actuellement je suis a la recherche d'un profil Compétences requises DevOps Engineer IA Profil recherché : DevOps Engineer avec expertise en MLOps et maîtrise du vibe coding, capable de construire et maintenir des infrastructures robustes pour l'IA tout en automatisant les déploiements et en garantissant la performance des solutions en production. Hard Skills : • 5 ans d'expérience minimum en DevOps/SRE • Expérience démontrée en vibe coding avec utilisation d'outils IA pour générer scripts, configs et diagnostiquer incidents • Expertise en MLOps et déploiement de modèles IA en production • Maîtrise des plateformes Cloud (AWS, Azure, GCP) et services IA Cloud • Expertise en Infrastructure as Code (Terraform, CloudFormation, ARM Templates) • Maîtrise de la conteneurisation et orchestration (Docker, Kubernetes, Helm) • Expertise CI/CD (GitLab CI, GitHub Actions, Jenkins, Azure DevOps) • Connaissance des outils MLOps (MLflow, Kubeflow, Weights & Biases, SageMaker Pipelines) • Maîtrise du scripting (Bash, Python) et automatisation • Expérience en monitoring et observabilité (Prometheus, Grafana, ELK, DataDog) • Connaissance des pratiques de sécurité DevSecOps • Gestion des secrets et configuration (Vault, AWS Secrets Manager) • Un plus : Expérience avec GPUs et optimisation des ressources IA Soft Skills : • Capacité à utiliser l'IA pour diagnostiquer et résoudre rapidement les incidents • Pragmatisme : équilibre entre automatisation et délais de livraison • Rigueur dans la conception et la sécurisation des infrastructures • Esprit d'innovation et veille technologique continue • Autonomie et proactivité dans l'identification des problèmes • Excellent sens du service et support aux équipes de développement • Esprit collaboratif et pédagogue • Réactivité face aux incidents de production Résultats attendus (Livrables) • Conception et mise en place d'architectures Cloud pour solutions IA (scalables, sécurisées, optimisées) • Déploiement et gestion d'infrastructures as Code (Terraform, CloudFormation) • Mise en place de pipelines CI/CD pour applications et modèles IA • Utilisation experte du vibe coding pour générer scripts, configs et automatisations • Automatisation des déploiements et rollbacks (blue/green, canary) • Configuration du monitoring, alerting et observabilité des modèles IA en production • Gestion des environnements (dev, staging, production) et des accès • Optimisation des coûts Cloud et des performances (GPU, compute, stockage) • Support aux développeurs sur l'outillage et les best practices DevOps • Documentation technique des infrastructures et procédures • Mise en place de pratiques DevSecOps et conformité sécurité • Partage des best practices MLOps et vibe coding avec l'équipe Anglais courant
Freelance

Mission freelance
Développeur Full Stack Python - full remote

Net technologie
Publiée le
Apache Airflow
Azure
IA

3 mois
450-500 €
France
Renforcer et fiabiliser une plateforme interne utilisée par les équipes commerciales , qui permet de sélectionner des leads via Salesforce et d’interagir avec un backend API . Aujourd’hui, la plateforme a des soucis de stabilité et de fiabilité . La mission consiste donc à la stabiliser, l’optimiser et à y ajouter des fonctionnalités d’intelligence artificielle générative pour guider les actions commerciales et améliorer la performance des équipes. 🛠️ Missions principales Stabiliser et optimiser le backend existant Assurer une bonne communication entre Salesforce et le backend via API Intégrer des recommandations guidées par IA générative pour aider les commerciaux Automatiser et orchestrer les workflows avec Apache Airflow Déployer et gérer la plateforme sur Microsoft Azure Développer de nouvelles fonctionnalités en Full Stack Python
212 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous