L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 669 résultats.
Mission freelance
Machine Learning Engineer – IA & MLOps
ESENCA
Publiée le
Github
LangChain
Python
1 an
Lille, Hauts-de-France
Contexte du poste Dans un environnement technologique en forte croissance, vous intervenez sur le développement et l’industrialisation de solutions d’Intelligence Artificielle. Les produits évoluent rapidement et nécessitent une forte capacité d’adaptation, de structuration et d’industrialisation des modèles. Objectif Concevoir, développer et déployer des solutions AI/ML robustes et scalables, tout en assurant leur intégration dans une chaîne CI/CD moderne et une plateforme MLOps structurée. Missions principalesDéveloppement & Industrialisation IA Concevoir et développer des modèles de Machine Learning et solutions basées sur les LLM Implémenter des composants AI/ML (fonctions, classes, tests automatisés) Participer à la conception d’architectures orientées Data & IA Assurer le passage du prototype à la production MLOps & Data Engineering Construire et maintenir les pipelines d’entraînement, d’évaluation et de déploiement Automatiser les workflows via Github Actions Mettre en œuvre les bonnes pratiques CI/CD et DevOps Assurer le monitoring, la performance et la scalabilité des modèles Qualité & Documentation Garantir la qualité du code (tests unitaires, intégration) Réaliser des revues de code Documenter les développements et configurations (Github / Gitbook) Assurer le suivi du cycle de vie complet des modèles (build & run) Environnement technique Python (impératif), Github Actions (impératif), LangChain (souhaitable), GCP, Kubernetes, Kafka, Terraform, bases SQL/NoSQL.
Mission freelance
📢 Nous recrutons : Formateur·rice IA Générative - Mistral AI
Editions ENI
Publiée le
IA Générative
2 jours
650-700 €
Loire-Atlantique, France
Vous maîtrisez l'écosystème Mistral AI et aimez transmettre vos connaissances ? Vous savez accompagner aussi bien des débutants que des utilisateurs avancés ? Alors cette mission est faite pour vous ! Votre rôle : Vous animerez des sessions de formation entre 1 et 3 jours, sur Mistral AI afin d'accompagner nos clients, au sein de leurs locaux. Conditions : Rémunération : 650 à 700 € HT / jour . Date : courant 2026 Durée : 2 jours Lieu : en présentiel dans les départements Ille-et-Vilaine (35), Loire-Atlantique (44) et Vendée (85)
Mission freelance
[FBO] Data Scientist/IA (GenIA) - Nantes - 1319
ISUPPLIER
Publiée le
9 mois
300-370 €
Nantes, Pays de la Loire
Contexte de la mission Compétences et expériences demandées : -Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. -Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. -Connaissance de SQL -Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit -Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch -Pratiquer une veille active sur vos domaines de compétence. -Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe Activité principales attendues : Machine Learning / Deep Learning - Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. - Création et production de modèles d'apprentissage automatique industrialisables Traitement de données à grande échelle pour la création de jeux de données d'entraînement - Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles - Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative - Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen - Prompt engineering - Bench via des solutions d'évaluation des modèles d'IA Gen - Optimisation des solutions (paramétrage des modèles)
Offre d'emploi
Administrateur infrastructure - (H/F)
SWING-ONE
Publiée le
Administration réseaux
AWS Cloud
Linux
6 mois
Île-de-France, France
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un administrateur infrastructure. Dans un environnement IT hybride et critique, vous assurez l’exploitation, l’évolution, la sécurité et la disponibilité des infrastructures on-premise et cloud. Vous intervenez sur des plateformes virtualisées VMware / VxRails / vSphere, des baies de stockage SAN/NAS, des environnements Linux et Windows, ainsi que sur des infrastructures cloud hybrides GCP et AWS, intégrées avec Microsoft 365 / Entra ID. MISSIONS PRINCIPALES : Administrer et maintenir les environnements virtualisés VMware vSphere / ESXi Exploiter et maintenir les infrastructures VxRails Administrer les baies de stockage SAN / NAS (performance, disponibilité, capacité) Administrer les environnements Linux (RedHat, Debian, Ubuntu…) Administrer Windows Server Administrer les environnements GCP et AWS Participer à l’architecture et à l’exploitation d’un SI hybride (on-premise / cloud) Administrer Microsoft 365 (Exchange Online, SharePoint, OneDrive, Teams) Gérer Entra ID (Azure AD) : identités, MFA, accès conditionnels
Mission freelance
Senior DataOps / DevOps AWS – Terraform
OAWJ CONSULTING
Publiée le
AWS Cloud
Databricks
Terraform
1 an
400-550 €
Lyon, Auvergne-Rhône-Alpes
Dans un environnement Media à forte volumétrie de données, le consultant interviendra au sein d’une équipe Data & Platform pour industrialiser, sécuriser et faire évoluer les plateformes data sur AWS . Le rôle est clairement senior , orienté DataOps / DevOps , avec une forte proximité Databricks. Responsabilités Conception et industrialisation des plateformes data sur AWS Mise en place et maintenance de l’infrastructure as code avec Terraform Déploiement, configuration et optimisation des environnements Databricks (AWS) Automatisation des pipelines Data & infra (CI/CD) Gestion des environnements (dev, preprod, prod) Sécurisation des accès, gestion des coûts et optimisation des performances Collaboration étroite avec les équipes Data Engineers et Analytics Compétences requises (impératives) Databricks sur AWS – expertise confirmée Terraform – niveau avancé AWS (IAM, VPC, S3, EC2, EKS ou équivalent) Solide culture DevOps / DataOps CI/CD (Git, pipelines automatisés) Bonne compréhension des architectures data cloud Profil recherché Senior DataOps / DevOps Autonome, structuré, orienté production À l’aise dans des environnements data complexes et critiques
Offre d'emploi
Techlead Cloud (.Net)
HOXTON PARTNERS
Publiée le
.NET
AWS Cloud
9 mois
45k-62k €
400-600 €
Bordeaux, Nouvelle-Aquitaine
Dans le cadre du renforcement de ses équipes techniques, une organisation recherche un Tech Lead Cloud afin de piloter la conception et la qualité des solutions applicatives. Le poste s’inscrit dans un environnement technique exigeant avec une forte interaction avec les architectes et les équipes de développement. Missions principales Concevoir les architectures techniques applicatives dans un environnement cloud majoritairement AWS Assurer le rôle de référent technique pour les équipes de développement, notamment sur les environnements .NET Collaborer avec les architectes pour garantir la cohérence des choix techniques Encadrer les bonnes pratiques de développement, d’industrialisation et de qualité logicielle Participer à l’amélioration continue des standards techniques et des processus d’ingénierie
Mission freelance
SRE - Site Reliability Engineer
Comet
Publiée le
AWS Cloud
Azure
Site Reliability Engineering (SRE)
218 jours
370-830 €
Île-de-France, France
Bonjour à tous les SRE ☁️ / Observabilité 📊 / Cloud & Resilience 🚀 ! Rejoins une équipe innovante qui garantit la fiabilité et la résilience des plateformes digitales critiques utilisées dans le monde entier. L’équipe Site Reliability Engineering accompagne les divisions applicatives pour améliorer la fiabilité, la surveillance et la résilience des produits digitaux. 🔎 Je cherche donc un/-e SRE expérimenté/-e pour participer à un projet ambitieux et technique. 💻 Ce que tu vas faire : Définir et implémenter des mécanismes de monitoring et alerting à tous les niveaux (front, back, ETL, data quality, connectivité) Contribuer à la résilience des applications via backup/restauration, Disaster Recovery Plans et tests associés Implémenter des scénarios de Chaos Engineering sur AWS et Azure Optimiser la gestion des incidents pour réduire le MTTR (détection, notification, analyse) Mettre en place des solutions AIOps pour améliorer observabilité et fiabilité Promouvoir les bonnes pratiques SRE auprès des squads et projets digitaux 🎯 Stack & outils : AWS (Prometheus, Cloudwatch, X-Ray, Firewall), Azure (Monitor, Application Insights, Log Analytics), GCP Observability, Grafana, Chaos Engineering, pipelines CI/CD, automatisation des backups, AIOps 📍 IDF – Paris 2e (Sentier) : 2 jours de télétravail 🏠 Si tu as une solide expérience en SRE, cloud multi-plateformes (AWS, Azure, GCP) et observabilité, et que tu aimes rendre les systèmes robustes et résilients, cette mission est faite pour toi !
Offre d'emploi
DevOps / Backend Engineer AWS (Node.js / Python) (H/F)
CITECH
Publiée le
AWS Cloud
Node.js
Nosql
6 mois
55k-60k €
450-540 €
75000, Paris, Île-de-France
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) DevOps / Backend Engineer AWS (H/F). 🚀 🏨 Notre client est un groupe international reconnu dans le secteur de l’hôtellerie et des services digitaux. Dans le cadre de l’évolution de ses plateformes de relation client et de fidélité, il renforce ses équipes techniques pour concevoir et développer des solutions innovantes pour ses centres de contact. 🚀 Votre mission Au sein d’une équipe produit composée de développeurs backend, DevOps et experts cloud, vous interviendrez sur : Le développement de services backend en Node.js et/ou Python La conception et l’évolution d’API et micro-services L’intégration de solutions omnicanales pour les centres de contact Le déploiement et l’industrialisation sur AWS La gestion et l’optimisation de bases de données SQL et NoSQL La participation à l’amélioration continue et à la fiabilité des services La collaboration avec les équipes produit et opérations Qualifications 🛠️ Environnement technique Node.js et/ou Python AWS (Lambda, API Gateway, S3, etc.) Bases de données SQL et NoSQL 👉 Une expérience cloud AWS est indispensable. Apprécié : Amazon Connect CI/CD et automatisation Architecture micro-services
Mission freelance
Responsable Infrastructure, Support & Sécurité
OPTIPARK
Publiée le
Azure
Infrastructure
Intune
6 mois
100-470 €
Paris, France
Créé en 2016, le groupe évolue dans un contexte d’ hyper‑croissance et porte une culture start‑up orientée collaboration, engagement et amélioration continue. Pour accompagner l’expansion et la digitalisation des cliniques, une transformation profonde des processus et des outils IT est en cours. Dans ce cadre, la DSI recherche son Responsable de domaine IT – Outils métier Missions principales Management & Pilotage Encadrer une équipe de 6 experts (réseau, sécurité, support, bureautique / modern workplace). Gérer les activités : infrastructure , sécurité , support utilisateurs , bureautique . Piloter les prestataires et fournisseurs . Gérer le budget du service . Animer, organiser et accompagner les membres de l’équipe au quotidien. Projets & Transformation Piloter les projets d’évolution de l’infrastructure. Mettre à jour les process de support. Participer à la réflexion sur la mise en place d’une organisation DevOps . Faire évoluer les politiques et stratégies de sécurité. Améliorer les processus de gestion du parc informatique. Contribuer à l’intégration des nouvelles cliniques . Gouvernance & Reporting Produire les dashboards de suivi du domaine. Mettre en place une gouvernance efficace pour piloter l’activité.
Mission freelance
Ingénieur Azure AI & Cognitive Services
JobiStart
Publiée le
AI
Azure
3 ans
400-550 €
Paris, France
Description du poste : Au sein du lab d'innovation, vous concevez et déployez des solutions d'intelligence artificielle basées sur les services Azure. Votre mission consiste à intégrer des capacités cognitives (Vision, Speech, Language, Decision) dans les applications bancaires pour automatiser les processus et améliorer l'expérience utilisateur. Vous développez des solutions utilisant Azure OpenAI (GPT-4) pour le traitement du langage naturel, le résumé de documents juridiques ou l'analyse de sentiment. Vous mettez en œuvre des architectures MLOps sur Azure Machine Learning pour industrialiser le cycle de vie des modèles, de l'entraînement au déploiement. Vous travaillez sur l'optimisation des coûts (FinOps AI), la sécurité des modèles et l'éthique des algorithmes. Vous collaborez avec les data scientists pour transformer les prototypes en services IA robustes, scalables et directement intégrés aux workflows métiers de la banque.
Mission freelance
Data Analyst IA Solutions (PowerBI, SQL, Python)
Nicholson SAS
Publiée le
CI/CD
Data analysis
DBT
24 mois
300 €
Lille, Hauts-de-France
Missions : Nous recherchons une personne avec une expérience confirmée (au moins 3 à 5 ans sur des problématiques Data), passionnée par la construction de solutions analytiques robustes et percutantes. Modélisation et Bases de Données : Vous maîtrisez parfaitement le langage SQL pour concevoir et optimiser des tables de données, notamment dans BigQuery et PostgreSQL. Vous avez également une connaissance des bases de données NoSQL comme MongoDB. Une expérience avec dbt pour la transformation et la modélisation est fortement appréciée. Visualisation de Données (Dataviz) : Vous avez une expertise solide sur des outils de BI comme Power BI ou Looker pour transformer des données brutes en dashboards interactifs et clairs, aidant ainsi à la prise de décision. Ingénierie et Analyse : Vous utilisez Python pour l'analyse, la manipulation de données complexes ou l'automatisation de tâches. Écosystème Cloud & DevOps : Vous êtes familier avec Google Cloud Platform (GCP). Vous avez une forte sensibilité aux pratiques DevOps et une expérience avec les outils d'intégration et de déploiement continus (CI/CD, comme Git, GitLab CI, GitHub Actions) pour garantir le versionnement, la qualité et l'automatisation des déploiements. Qualité de la Donnée : Vous êtes sensible à la qualité et à la gouvernance des données, et vous mettez en place des pratiques pour assurer la fiabilité des informations.
Offre d'emploi
Développeur Big Data sur Lyon
EterniTech
Publiée le
Cloudera
Hadoop
SQL
3 ans
Lyon, Auvergne-Rhône-Alpes
Je recherche pour un de mes client un Développeur Big Data sur Lyon CONTEXTE DE LA MISSION Le client, dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs. DESCRIPTION DE LA MISSION Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gouvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. LIVRABLES ATTENDUS ET ENVIRONNEMENT TECHNIQUE Les principales missions confiées seront les suivantes : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs - Capacité à expliquer simplement le sujet, à communiquer vers des interlocuteurs type développeur, bureau d'étude, qualifieur et "clients" (Groupes de protection sociale). La connaissance de Power BI et SAS sont des plus. Exemples de livrables attendus : - Code source documenté - Plan de tests / fiches de test - Bilan - Bordereau de livraison - Manuel d’installation - Dossier d’exploitation - JIRA documentée Environnement technique : - Hadoopa Cloudera - Hive - Impala - Python - Shell - Spark - Linux - SQL - VBA - Git - Jupyter Des connaissances de l’écosystème de la protection sociale sont les bienvenues (retraite complémentaire idéalement).
Mission freelance
Développeur Azure Paas (on .Net core)- 3 ans - ASAP
Montreal Associates
Publiée le
.NET CORE
Azure DevOps
Azure DevOps Services
10 mois
500-600 €
Saint-Denis, Île-de-France
Voici une annonce courte, claire et sélective , dans le style habituel LinkedIn 👇 Développeur Back-end Senior Azure (.NET Core) Mon client international recherche un expert Azure PaaS confirmé pour faire évoluer et fiabiliser une plateforme cloud stratégique orientée APIs & Data . Objectif => rationaliser l’architecture, optimiser la performance et garantir la robustesse des services en production . 🎯 Responsabilités clés Évolution & maintenance de l’architecture Azure (PaaS / APIs / monitoring) Développement .NET Core de services backend CI/CD Azure DevOps & déploiements continus Modélisation data avec l’équipe Data Qualité, sécurité, performance & documentation (anglais) 🛠️ Exigences fortes (profils très expérimentés uniquement) 5+ ans Azure PaaS : App Services, Functions, LogicApps, ServiceBus, KeyVault, SQL/Cosmos, Storage, Azure AD Excellente maîtrise .NET Core Bonne culture Cloud architecture, observabilité, coûts & fiabilité Anglais fluent obligatoire ➕ Bonus : DevOps, Apigee, EventHub, Angular, New Relic #Freelance #Azure #DotNet #Backend #AzurePaaS #DevOps
Offre d'emploi
Data Engineer (F/H)
CELAD
Publiée le
30k-60k €
Lille, Hauts-de-France
Data Engineer – GCP / BigQuery – Plateforme Data Groupe Lille (2 jours sur site minimum) – Environnement bancaire / Data Platform Vous souhaitez contribuer à la construction et à l’évolution d’une plateforme Data stratégique à l’échelle d’un grand groupe bancaire ? Nous recherchons un Data Engineer pour renforcer l’équipe en charge du Socle Cloud Data Platform Groupe . Vos missions Build Concevoir et développer les flux d’alimentation du DataLake Groupe Mettre en place des solutions de data engineering sur Google Cloud Platform (BigQuery) Développer et maintenir les outillages nécessaires aux certifications de données du projet ORION Identifier et exploiter les sources de données pertinentes Participer à la modélisation et à la transformation des données Collaborer avec les Data Analysts et Data Stewards Run Assurer le suivi de production des chaînes d’alimentation de données Analyser et résoudre les incidents en collaboration avec les équipes de production Participer aux évolutions techniques et optimisations de la plateforme
Offre d'emploi
Ingénieur Réseaux et Télécom H/F
MP Advertising
Publiée le
Azure
Cisco
Fortinet
40k-54k €
Paris, France
Ingénierie Réseaux • Amender les documents d’architecture, les mettre à jour et challenger les infra existantes • Suivre les projets, et accompagner les réalisations techniques et documentaires • Diagnostiquer et résoudre les incidents de niveau 3 à distance ou sur site • Intervenir en priorité sur les incidents impactant l’activité magasin • Être le point central de contact avec les différents prestataires réseaux et créer les tickets inhérents • Faire le lien avec les supports prestataires et les équipes terrain • Communiquer sur les incidents et les pistes d’améliorations continues Déplacements et Déploiements • Analyser sur le terrain les différentes configurations pour maitriser les environnements des différents bâtiments • Être force de proposition sur les architectures cibles suite aux analyses terrains • Accompagner les prestataires sur les différents besoins locaux • Documenter les spécificités des sites distants Ingénierie Télécom • Prendre en charge les incidents téléphonie • Prendre en charge les commandes et les suivis des activations/désactivations/modifications des lignes fixes et portables • Accompagner avec le N3 Microsoft sur la documentation Inventaires et Documentations Telecom • Tenir à jour les inventaires matériels, et faire les procédures de SAV le cas échéant • Suivre les entrées/sorties matérielles et alerter en cas de pénurie • Participer à l’amélioration continue des procédures
Offre d'emploi
Product Owner Data / IA
VISIAN
Publiée le
Agile Scrum
Microsoft Power BI
Product management
1 an
Paris, France
Contexte : Pilotage de produits analytics destinés aux équipes commerciales, avec un fort enjeu de valeur métier, d’adoption et de fiabilité des données. Activités principales • Définir la vision produit analytics et construire la roadmap. • Recueillir, cadrer et challenger les besoins métiers. • Prioriser le backlog et arbitrer selon la valeur business. • Rédiger les user stories data et critères d’acceptation. • Piloter le delivery des équipes analytics / BI. • Animer les rituels agiles (refinement, planning, reviews). • Suivre l’adoption, l’usage et l’impact business des produits data. • Garantir la qualité, la cohérence et la documentation des indicateurs. • Accompagner les équipes métiers dans l’utilisation des solutions analytics.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5669 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois