L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 192 résultats.
Mission freelance
Ingénieur Analyste Cybersécurité – Expert Auto
Codezys
Publiée le
Automatisation
Azure
Cloud
12 mois
Paris, France
Contexte de la mission Le consultant spécialisé en automatisation DevOps et gestion des événements IT/Sécurité sera chargé d’optimiser l’efficacité des processus opérationnels liés au suivi des incidents et des alertes. Sa mission consistera à concevoir et à déployer des workflows automatisés pour la création et le suivi des tickets, à industrialiser la génération de tableaux de bord et de rapports, tout en assurant une intégration fluide entre les différentes plateformes (ServiceNow, outils de monitoring, outils BI, etc.). Il interviendra dans un environnement technique diversifié comprenant : Outils & plateformes ITSM : ServiceNow, Jira BI / DataViz : Power BI, Grafana, ELK DevOps : GitHub Actions, GitLab, Azure DevOps, Jenkins Développement & scripting Python (prioritaire), PowerShell, Bash, Go API REST / GraphQL Infrastructure & Cloud Azure, AWS, GCP Terraform, Ansible Docker, Kubernetes, OpenShift Systèmes Linux / Windows Objectifs et livrables La mission du consultant portera principalement sur l’automatisation des processus liés à l’IT et à la cybersécurité, avec pour objectifs : Implémenter des automatisations fiables pour la création et le suivi des tickets dans les outils ITSM Développer et industrialiser l’automatisation du reporting et du tableau de bord (KPIs, incidents, SLA) Assurer la connectivité et l’intégration entre les différentes plateformes IT et Cloud afin de fluidifier la gestion des événements Réduire la charge manuelle des opérations récurrentes et chronophages Améliorer la qualité, la rapidité et la fiabilité du suivi des incidents ainsi que des rapports associés Élaborer une roadmap d’automatisation cohérente avec les priorités business et IT Missions principales Conception et développement de solutions d’automatisation Mise en place de pipelines CI/CD et de chaînes d’intégration automatisées Intégration des outils IT et de sécurité Développement de scripts d’automatisation pour le SOC Production de dashboards et de rapports automatisés Amélioration continue des processus opérationnels Accompagnement des équipes dans l’adoption des solutions Livrables attendus Workflows automatisés (création de tickets, gestion d’incidents) Tableaux de bord et reporting automatisés Scripts et pipelines CI/CD documentés Documentation technique et procédures opérationnelles Roadmap pour l’amélioration continue Rapports de suivi de prestation
Offre d'emploi
Développeur Python/react
VISIAN
Publiée le
AWS Cloud
Django
FastAPI
2 ans
40k-45k €
400-600 €
Paris, France
Bonjour, dans le cadre d'un projet client, Visian est à la recherche d'un développeur Python / react. Les prestations à exécuter sont : - La conception et le développement d'applications neuves pour la gestion du cycle de vie des assets, sur la stack Python / Django / React / AWS - Le développement d'APIs (Django REST Framework ou FastAPI), d'automates et d'ETLs - Le développement d'interfaces utilisateur React (composants, state management, intégration API) - La mise en place et la maintenance de l'infrastructure AWS (Lambda, ECS, S3, RDS, SQS) et de l'IaC Terraform associée - L'écriture de tests à tous les niveaux : unitaires, intégration, end-to-end - La mise en œuvre de pipelines CI/CD (GitHub Actions) - Le maintien en condition opérationnelle des applications produites - La participation au support applicatif auprès des autres équipes et des entités métier Le prestataire est attendu sur une posture senior, ce qui signifie concrètement : - Esprit critique : capacité à challenger les choix techniques, les spécifications, et le code produit — y compris celui généré par l'IA. - Force de proposition : contribuer activement aux décisions d'architecture, proposer des améliorations de process, d'outillage ou de pratiques. - Usage structuré de l'IA générative : utiliser GitHub Copilot et les outils d'IA de manière délibérée et méthodique. Cela inclut : savoir quand l'agent produit du code correct vs. du code plausible-mais-faux, structurer le contexte donné à l'agent, et contribuer à faire progresser les pratiques IA de l'équipe (skills, workflows, retours d'expérience). - Autonomie : être capable de prendre en charge un sujet de bout en bout (cadrage, développement, tests, déploiement, monitoring). - Transmission : partager ses connaissances, documenter ses choix, élever le niveau de l'équipe.
Offre d'emploi
Développeur IA Python (AI-Native Developer)
TS-CONSULT
Publiée le
Azure
Pytorch
Tensorflow
1 an
Île-de-France, France
Bonjour, Actuellement je suis a la recherche d'un profil , Développeur IA Python (AI-Native Developer) Profil recherché : Développeur Python expérimenté, expert en IA/ML et maîtrisant le vibe coding, capable de développer rapidement des solutions innovantes avec assistance IA tout en garantissant la qualité et la maintenabilité du code. Compétences requises Hard Skills : • 5 ans d'expérience minimum en développement Python avec focus IA/ML • Expérience démontrée en vibe coding avec utilisation productive d'outils IA (GitHub Copilot, Cursor, Claude, ChatGPT) • Expertise en frameworks ML/DL : TensorFlow, PyTorch, Scikit-learn, Hugging Face, LangChain • Expérience confirmée avec les LLMs (fine-tuning, prompt engineering, RAG, agents) • Maîtrise des plateformes Cloud (AWS SageMaker, Azure ML, GCP Vertex AI) • Connaissance des technologies MLOps et pipelines CI/CD pour modèles IA • Compétences en data engineering (preprocessing, feature engineering, pipelines de données) • Maîtrise des bases de données (SQL, NoSQL, Vector DBs) • Expérience en développement d'APIs (FastAPI, Flask, REST) • Bonne connaissance de la conteneurisation (Docker, Kubernetes) • Expertise en testing et qualité du code (pytest, unittest, code coverage) • Connaissance des outils de versioning (Git, GitLab/GitHub) • Un plus : Expérience en Computer Vision et/ou NLP Soft Skills : • Esprit critique développé face au code généré par IA • Capacité à décomposer des problèmes complexes et à formuler des prompts efficaces • Curiosité intellectuelle et veille technologique active sur l'IA • Pragmatisme : équilibre entre vitesse de développement et qualité • Rigueur dans la validation et l'optimisation du code • Autonomie et force de proposition • Excellent relationnel et capacité à travailler en équipe • Esprit agile et adaptatif • Capacité à partager ses connaissances et best practices Résultats attendus (Livrables) • Participation aux workshops avec les équipes IT/métiers et les Data Scientists • Développement et optimisation de modèles IA/ML pour les use cases métiers • Intégration et déploiement des modèles en production (APIs, microservices) • Utilisation experte du vibe coding pour accélérer le développement sans compromettre la qualité • Mise en place de pipelines MLOps (entraînement, versioning, monitoring) • Tests automatisés et validation des modèles (performance, robustesse, biais) • Documentation technique détaillée (code, modèles, APIs, prompts réutilisables) • Optimisation des performances (latence, coûts, scalabilité) • Veille technologique et recommandations sur les nouvelles techniques IA • Partage des best practices de vibe coding avec l'équipe Un anglais courant!
Offre d'emploi
Data Engineer
UCASE CONSULTING
Publiée le
AWS Cloud
ETL (Extract-transform-load)
Maintien en condition opérationnelle (MCO)
1 an
40k-50k €
450-550 €
Paris, France
Dans le cadre du renforcement d’une équipe data, nous recherchons pour un de nos clients dans le secteur de la mobilité un Data Engineer pour intervenir sur une mission longue, avec un rôle clé dans le développement et le maintien des pipelines de données. Vous intégrerez un pôle Data Studio & OPS , en charge du développement, de l’exploitation et de la fiabilité des solutions data, dans un environnement orienté production et performance. 🧩 Vos missions Développer et maintenir des pipelines de données (ETL / ELT) Manipuler et transformer des données (SQL / volumétrie importante) Assurer la mise en production et le maintien en conditions opérationnelles (MCO) Gérer le support technique N2 / N3 (incidents, monitoring, résolution) Participer à l’amélioration continue des traitements data Travailler en lien avec les équipes projets et techniques
Offre d'emploi
Développeur .NET
ICSIS
Publiée le
.NET
.NET CORE
.NET Framework
3 ans
30k-40k €
350-450 €
Lille, Hauts-de-France
La mission consiste à : - Analyse de l’existant - Rédaction de Spécifications Techniques Détaillées et de fiches de tests - Développement de solutions logicielles autour du .NET en conformité avec les normes en place - Prise en charge de tickets d’incidents de Production - Assistance à la recette métier et traitement des retours - Assistance au responsable de pôle sur les analyses et chiffrages de nouvelles évolutions et/ou projets - Collaboration à l’amélioration continue - Participation à la capitalisation documentaire des applications et également à la capitalisation des connaissances au sein de l’équipe Compétences demandées : - Maitrise du .NET Framework, .NET Core+, SQL et des langages Web (HTML, CSS, Javascript/Jquery) - Connaissance des techniques de gestion de source (idéalement via GIT et Git Flow) - Maitrise CI/CD sous Azure Devops (configuration des pipelines…..) - SSIS - De bonnes notions d’architecture technique, une connaissance de l’environnement AWS serait un plus - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais un +
Offre d'emploi
Data Engineer senior
Atlanse
Publiée le
Agile Scrum
AWS Cloud
AWS Glue
1 an
60k-67k €
500-600 €
Paris, France
En tant que Data Engineer Senior PySpark, vous jouez un rôle clé dans la performance et la fiabilité des traitements de données à grande échelle. Vous êtes en charge de l’optimisation des pipelines existants et de l’organisation des activités de RUN & stabilisation, en veillant à prioriser les actions à forte valeur ajoutée dans un environnement Agile. Votre rôle Optimisation et refonte des pipelines data · Auditer, refactorer et faire évoluer les modules de data engineering : Refining Covariates Modelling, Exposition · Optimiser les pipelines PySpark pour améliorer les performances de traitement à grande échelle (partitioning, gestion des joins, cache, skew et volumétrie) · Renforcer la modularité, la lisibilité, l’évolutivité et la scalabilité des pipelines · Contribuer à la réduction de la dette technique et à la modernisation du legacy Industrialisation et qualité des développements · Structurer un framework flexible permettant l'ajout de nouvelles features et facilitant l’industrialisation des développements · Mettre en place les tests unitaires, d’intégration et fonctionnels · Formaliser des standards de développement Stabilisation, RUN et amélioration continue · Améliorer la stabilité des pipelines grâce au monitoring et à l’application des bonnes pratiques CI/CD · Structurer et prioriser les actions de RUN et de stabilisation · Définir et piloter un plan d'optimisation priorisé avec des gains mesurables Passage à l’échelle et évolution de l’architecture data · Adapter les pipelines pour un déploiement mondial / multi régions en tenant compte des enjeux de volumétrie et de passage à l’échelle · Optimiser le ratio coût / performance des traitements · Travailler en étroite collaboration avec les Data Scientists et les ML Engineers
Offre d'emploi
Développeur Python / IA (RAG & Multi-Agents) – H/F
LINKWAY
Publiée le
AI
Azure
Python
12 mois
40k-45k €
400-450 €
Paris, France
Dans le cadre du développement de solutions innovantes autour de l’intelligence artificielle, nous recherchons un Développeur Python spécialisé en IA , avec une expertise sur les architectures RAG (Retrieval-Augmented Generation) et les systèmes multi-agents . Vos missions Concevoir et développer des solutions IA basées sur Python Mettre en place des architectures RAG (intégration de données, vectorisation, retrieval, LLM) Développer et orchestrer des systèmes multi-agents Intégrer des modèles de langage (LLM) dans des applications métiers Optimiser les performances et la qualité des réponses générées Participer à la veille technologique sur les sujets IA / GenAI Collaborer avec les équipes data, produit et métier
Offre d'emploi
Ingénieur IA Générative / MLOps (H/F)
SMARTPOINT
Publiée le
AWS Cloud
Docker
Kubernetes
6 mois
50k-60k €
470-500 €
Île-de-France, France
Dans le cadre du développement de ses capacités en Intelligence Artificielle , notre client recherche un Ingénieur IA Générative / MLOps . Vous interviendrez sur l’ensemble du cycle de vie des solutions IA, de l’expérimentation à la mise en production, avec un focus sur les architectures GenAI (RAG, agents, fine-tuning) . Vos missions Implémenter et déployer des modèles d’IA (Machine Learning & IA Générative) Industrialiser les solutions via des pratiques MLOps Mettre en place le monitoring, la supervision et la maintenance (MCO) des modèles Concevoir des pipelines de données et d’ingestion Optimiser les performances (coûts, temps de calcul, scalabilité) Évaluer des Proof of Concept (PoC) et recommander les meilleures architectures Mettre en œuvre des solutions RAG (Retrieval-Augmented Generation) Travailler sur des approches fine-tuning et prompt engineering Accompagner les équipes sur les bonnes pratiques IA et industrialisation Livrables attendus Études et cadrages de cas d’usage (4 à 6 par an) Développement de pipelines d’ingestion (15 à 20 par an) Déploiement de modèles en production (15 à 20 par an) Maintenance et optimisation des solutions IA (3 à 5 par an)
Mission freelance
Architecte Data & IA – Plateforme & Socle
VISIAN
Publiée le
Azure
Azure DevOps
Databricks
1 an
400-550 €
Île-de-France, France
L’Architecte Data & IA intervient comme référent sur les choix techniques, la cohérence des architectures et l’industrialisation des usages Data/IA. Missions principales 1. Architecture & gouvernance technique Concevoir et maintenir les architectures cibles Data & IA (MLOps, LLMOps, DataOps) Garantir la cohérence globale de la plateforme Data & IA Contribuer à la mise en œuvre d’une gouvernance unifiée des données (sécurité, traçabilité, lineage) Superviser l’intégration et l’évolution d’une plateforme Data Lakehouse (type Databricks) Participer à l’évolution de l’offre de service du socle Data & IA 2. Industrialisation IA & MLOps Structurer les pratiques MLOps / LLMOps (CI/CD, monitoring, automatisation) Accompagner les équipes dans la mise en œuvre des bonnes pratiques DataOps et ML Garantir la fiabilité des pipelines de production IA Participer à la standardisation des modèles de déploiement IA 3. Innovation & plateforme IA Préparer la plateforme pour les usages d’IA générative et agentique Concevoir des architectures d’intégration pour les modèles LLM (internes et externes) Développer des approches AI by Design (conformité, sécurité, gouvernance) Contribuer aux initiatives d’innovation (observabilité IA, optimisation des coûts, temps réel) 4. Accompagnement & montée en compétences Encadrer les équipes DataOps et MLOps Diffuser les bonnes pratiques d’architecture et d’industrialisation Accompagner la montée en maturité sur les outils Data & IA Travailler en collaboration avec les équipes Data et Delivery Livrables attendus Architecture cible Data & IA unifiée Framework MLOps / LLMOps industrialisé (CI/CD, observabilité, MLFlow…) Guide de bonnes pratiques DataOps Tableau de bord de suivi de maturité IA / ML Recommandations d’évolution de la gouvernance Data & IA
Offre d'emploi
Virtual Desktop Engineer
AVALIANCE
Publiée le
Administration Windows
Azure
Citrix
1 an
40k-45k €
400-580 €
Saint-Denis, Île-de-France
Vous interviendrez comme référent(e) technique sur les environnements Virtual Desktop France et contribuerez à leur évolution au niveau global : Administrer et maintenir les environnements Citrix pour 8 000 utilisateurs Gérer les infrastructures Azure Virtual Desktop (AVD) pour 2 500 utilisateurs Assurer le support de niveau 2 et 3 sur l’ensemble des environnements VDI Participer à une astreinte pour les incidents critiques Optimiser les performances et superviser les systèmes via Azure Monitor, Log Analytics, Diagnostics Contribuer à l’amélioration continue des services et à l’automatisation des tâches Rédiger et maintenir à jour la documentation technique
Mission freelance
Cloud Automation & Data Ingénieur junior (H/F)
Insitoo Freelances
Publiée le
AWS Cloud
Bash
Python
2 ans
350-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Cloud Automation & Data Ingénieur junior (H/F) à La Ciotat, France. Les missions attendues par le Cloud Automation & Data Ingénieur junior (H/F) : Automatiser l’intégralité des infrastructures Cloud et des services de données. Industrialiser les déploiements via des pratiques DevSecOps rigoureuses. Concevoir des architectures orientées données (Data Lakes, Streaming) hautement disponibles. Accompagner les équipes projets dans l’adoption des meilleures pratiques Cloud & Data. Responsabilités Principales 1. Automatisation & Infrastructure as Code (IaC) Concevoir et déployer des infrastructures via Terraform. Gérer le cycle de vie complet des ressources sur AWS. Automatiser les services Data (S3, Glue, Kinesis, etc.) et optimiser la performance des environnements. 2. DevSecOps & CI/CD Construire et maintenir des pipelines CI/CD (GitLab, GitHub ou Jenkins). Intégrer nativement la sécurité (contrôles de conformité, scans de vulnérabilités). Automatiser les tests de qualité de données et la validation des schémas. 3. Platform Engineering & Architecture Data Développer des frameworks internes pour faciliter l'usage du Cloud (Serverless, Conteneurs). Mettre en œuvre des architectures orientées événements (Kinesis, Lambda). Assurer l'ingestion, le stockage et la fluidité des flux au sein du Data Lake. 4. Sécurité, Gouvernance & Conformité Piloter la gestion des identités et des accès (IAM) et le chiffrement (KMS). Appliquer les politiques de gouvernance : catalogage, traçabilité et rétention des données. Garantir l'auditabilité et le monitoring des données sensibles. Compétences Requises Cloud : Maîtrise approfondie d'AWS (Core services & Data stack). IaC : Expertise confirmée sur Terraform. Conteneurisation : Docker, Kubernetes. Data Engineering : ETL/ELT, modélisation de données, cycle de vie de la donnée. Développement : Python (avancé), Bash, SQL. Outils : Écosystème CI/CD, la connaissance de Snowflake est un plus significatif.
Offre premium
Offre d'emploi
Data Analyst Monétique
Lùkla
Publiée le
Azure
Data analysis
Google Cloud Platform (GCP)
6 mois
30k-80k €
400-550 €
75000, Paris, Île-de-France
Nous recherchons dans le cadre d'un programme gagné des data analysts qui rejoindront une datafactory dont le rôle est : • d’alimenter les équipes métiers ainsi que les autres squads data en données de paiement et données client permettant de mener tous types d'analyses, • de générer et diffuser des reportings et des états Power BI aux équipes métiers. • d'alimenter des systèmes opérationnels ou interfaces à destination de clients en données de paiements. • d’assister les équipes métiers dans leurs exploitations des données de paiement,
Offre d'emploi
Architecte Technique Sénior (Core Infra)
Clostera
Publiée le
Ansible
Azure
Elasticsearch
1 an
58k-80k €
570-680 €
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez-nous ! Au sein de la direction Core Infrastructure de notre client, vous intervenez sur la conception et l’évolution des services d’infrastructure critiques (observabilité, supervision, API Management, gestion des identités). Ce que vous ferez : Définir et piloter les architectures techniques Accompagner les équipes sur les choix techniques structurants Concevoir des solutions scalables, robustes et optimisées en coûts Mettre en place les processus de gouvernance (RACI, RBAC) Piloter les chantiers techniques (delivery & priorisation) Participer à la roadmap produit (vision observabilité) Assurer la qualité, la documentation et la transmission des connaissances
Mission freelance
Senior DevOps Engineer
Codezys
Publiée le
Azure
Github
Terraform
6 mois
Barcelone, Catalogne, Espagne
Contexte de la mission Détails du projet : Lieu : Europe (Fuseau horaire CET) Mode de travail : Télétravail complet ou hybride (Barcelone, Espagne) Date de démarrage : 1er avril Durée : 6 mois Possibilité de prolongation : Oui, jusqu’à 3 mois supplémentaires Langues : Anglais, Espagnol (souhaité mais pas obligatoire) Résumé du projet Le rôle de Senior DevOps Engineer est axé sur l’observabilité, avec pour mission principale la migration des systèmes de monitoring de Splunk vers New Relic. Il s’agit également de définir, mettre en place et faire respecter les standards, la gouvernance et les bases techniques relatives à l’observabilité à travers diverses plateformes. Objectifs et livrables Responsabilités principales et activités clés : Diriger la migration des outils de monitoring de Splunk vers New Relic Concevoir et mettre en œuvre la gouvernance de New Relic (structure des comptes, tagging, alertes, dashboards, SLOs) Définir et promouvoir les bonnes pratiques en matière d’observabilité au sein des équipes d’ingénierie Implémenter des fonctionnalités d’observabilité (logs, APM, infrastructure, tracing, synthetics, intégrations) Collaborer avec les équipes applicatives pour l’intégration et le instrumentation des services Automatiser les configurations d’observabilité à l’aide de Terraform et les intégrer dans les workflows CI/CD via GitHub Fournir une expertise technique sur Azure, Terraform, GitHub Actions et les pratiques d’observabilité Aligner la surveillance et les alertes avec les SLIs/SLOs Soutenir l’amélioration continue des opérations, de la fiabilité, de la performance et de la sécurité
Offre d'emploi
DevOps Engineer IA
TS-CONSULT
Publiée le
Azure
Nosql
Tensorflow
1 an
Île-de-France, France
Bonjour a tous je suis a la recherche d'un profil DevOps Engineer IA pour l'un de mes clients, Profil recherché : DevOps Engineer avec expertise en MLOps et maîtrise du vibe coding, capable de construire et maintenir des infrastructures robustes pour l'IA tout en automatisant les déploiements et en garantissant la performance des solutions en production. Compétences requises Hard Skills : • 5 ans d'expérience minimum en développement Python avec focus IA/ML • Expérience démontrée en vibe coding avec utilisation productive d'outils IA (GitHub Copilot, Cursor, Claude, ChatGPT) • Expertise en frameworks ML/DL : TensorFlow, PyTorch, Scikit-learn, Hugging Face, LangChain • Expérience confirmée avec les LLMs (fine-tuning, prompt engineering, RAG, agents) • Maîtrise des plateformes Cloud (AWS SageMaker, Azure ML, GCP Vertex AI) • Connaissance des technologies MLOps et pipelines CI/CD pour modèles IA • Compétences en data engineering (preprocessing, feature engineering, pipelines de données) • Maîtrise des bases de données (SQL, NoSQL, Vector DBs) • Expérience en développement d'APIs (FastAPI, Flask, REST) • Bonne connaissance de la conteneurisation (Docker, Kubernetes) • Expertise en testing et qualité du code (pytest, unittest, code coverage) • Connaissance des outils de versioning (Git, GitLab/GitHub) • Un plus : Expérience en Computer Vision et/ou NLP Soft Skills : • Esprit critique développé face au code généré par IA • Capacité à décomposer des problèmes complexes et à formuler des prompts efficaces • Curiosité intellectuelle et veille technologique active sur l'IA • Pragmatisme : équilibre entre vitesse de développement et qualité • Rigueur dans la validation et l'optimisation du code • Autonomie et force de proposition • Excellent relationnel et capacité à travailler en équipe • Esprit agile et adaptatif • Capacité à partager ses connaissances et best practices Résultats attendus (Livrables) • Participation aux workshops avec les équipes IT/métiers et les Data Scientists • Développement et optimisation de modèles IA/ML pour les use cases métiers • Intégration et déploiement des modèles en production (APIs, microservices) • Utilisation experte du vibe coding pour accélérer le développement sans compromettre la qualité • Mise en place de pipelines MLOps (entraînement, versioning, monitoring) • Tests automatisés et validation des modèles (performance, robustesse, biais) • Documentation technique détaillée (code, modèles, APIs, prompts réutilisables) • Optimisation des performances (latence, coûts, scalabilité) • Veille technologique et recommandations sur les nouvelles techniques IA • Partage des best practices de vibe coding avec l'équipe
Mission freelance
Data Engineer Senior F/H
SMARTPOINT
Publiée le
AWS Cloud
CI/CD
DevOps
12 mois
480-500 €
Île-de-France, France
Mission principale Assurer le développement, la mise en œuvre opérationnelle et la maintenance des pipelines et services de données au sein de la plateforme Data. Services, en garantissant leur fiabilité, performance et sécurité. Tâches & activités Concevoir et développer des pipelines de données (ETL) notamment avec Kestra Manipuler, transformer et optimiser les données (SQL / NoSQL) Assurer la maintenance en conditions opérationnelles (MCO) des pipelines et services data Participer à la sécurisation des migrations fonctionnelles et techniques Contribuer à l’amélioration continue des processus data (qualité, performance, monitoring) Collaborer avec les équipes techniques et métiers pour cadrer et implémenter les besoins Livrables & résultats attendus Développement de 10 à 14 pipelines / algorithmes par an Maintien en conditions opérationnelles des solutions (suivi quotidien) Production de rapports d’activité et comptes rendus d’intervention Garantie de la qualité, de la fiabilité et de la performance des flux de données Compétences techniques Excellente maîtrise de SQL et des outils ETL (Kestra) Bonne connaissance des environnements Cloud AWS Culture DevOps / CI-CD (industrialisation, automatisation) Compétences en modélisation de données (UML est un plus) Connaissance des bases NoSQL
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2192 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois