Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 779 résultats.
Mission freelance
Expert DevOps / GitLab Senior – Mission longue
LINKWAY
Publiée le
DevOps
Gitlab
12 mois
610-620 €
Île-de-France, France
Dans le cadre du renforcement de son équipe plateforme DevOps , notre client recherche un Expert DevOps / GitLab Senior pour intervenir au sein d’un centre d’excellence DevOps, Data & IA . Vous intégrerez une équipe en charge de l’outillage CI/CD et contribuerez activement à l’évolution des pratiques DevSecOps, avec une forte orientation vers l’ automatisation, la sécurité et l’intégration de l’IA . Vos missions Intervenir en tant qu’ expert technique (Build / Run N3 / expertise) Concevoir, maintenir et faire évoluer les pipelines CI/CD (GitLab CI en cible) Participer à la migration et transformation vers GitLab CI Améliorer et industrialiser les outils de la chaîne DevOps : GitLab, Jenkins Nexus / Artifactory SonarQube, Selenium OpenBao (gestion des secrets) Contribuer à l’ évolution de l’offre de services DevOps selon les besoins métiers Accompagner les équipes techniques : montée en compétences diffusion des bonnes pratiques DevSecOps Participer aux sujets innovants autour de : GitLab Ultimate SAST / Checkmarx Intégration de l’IA dans la chaîne DevSecOps
Mission freelance
Lead / Data Engineer senior
Comet
Publiée le
Apigee
Google Cloud Platform (GCP)
Python
5 mois
210-630 €
Île-de-France, France
Bonjour à tous, notamment aux Data Engineers Seniors ⚙️ spécialisés sur GCP / BigQuery 🔎 Je cherche un Data Engineer Senior avec une forte dimension expertise technique et expérience en rôle de lead, pour rejoindre une data platform stratégique en pleine montée en puissance. L’objectif de la plateforme est de centraliser, transformer et exposer la donnée à grande échelle afin de supporter des cas d’usage analytics, BI et IA dans un environnement data moderne. La plateforme est déjà en place et entre dans une phase clé d’optimisation, de scalabilité et d’enrichissement des usages (notamment autour de l’IA). 💻 Ce que tu vas faire : - Concevoir et faire évoluer des pipelines data robustes, scalables et sécurisés - Développer des traitements avancés sur BigQuery (CTE, window functions, optimisation performance & coûts) - Optimiser les requêtes à grande échelle via analyse des plans d’exécution - Concevoir des modèles de données (star / snowflake) pour des usages BI (PowerBI, Looker) - Intégrer des sources de données multiples (API, cloud, bases, fichiers…) - Industrialiser les workflows via CI/CD et Infrastructure as Code (Terraform, Cloud Build) - Contribuer à l’intégration de cas d’usage IA dans les pipelines data - Participer aux choix d’architecture et structurer les bonnes pratiques data 🎯 Stack & environnement : BigQuery / SQL / Python / GCP / Cloud Build / Cloud Workflows / Apigee / Terraform / GitHub / PowerBI / Looker ➕ Bonus : expérience sur des environnements media / digital data (Google Analytics, Salesforce, CRM, social media) 📍 IDF : 2 jours de TT 🏡 📅 Démarrage : ASAP Qu'en penses-tu ? Une belle journée,
Mission freelance
Consultant SAP S4HANA SD/MM Senior – Lyon
INOV
Publiée le
SAP MM
SAP SD
6 mois
550 €
Paris, France
Contexte : Nous recherchons un Consultant SAP S/4HANA SD/MM Senior pour rejoindre une équipe Agile internationale en charge de l’évolution d’un produit stratégique. Vous interviendrez sur la maintenance, les nouvelles fonctionnalités et la modernisation du paysage applicatif SAP. - Assurer le support fonctionnel et les évolutions sur SAP S/4HANA SD - Contribuer aux User Stories avec les équipes métiers et techniques - Participer au déploiement de nouvelles fonctionnalités et améliorations produit - Accompagner la modernisation via Fiori et solutions orientées IA - Collaborer avec équipes France / Inde dans un environnement Agile
Offre d'emploi
Consultant Microsoft 365H/F
HAYS France
Publiée le
33k-37k €
Reims, Grand Est
Vos missions sont les suivantes : Conception et déploiement d'environnements Microsoft 365 adaptés aux besoins métiers. Structuration et mise en place de la gouvernance des usages collaboratifs (Teams, SharePoint, OneDrive). Accompagnement des migrations et optimisation des usages existants. Mise en place d'automatisations simples avec Power Automate. Intervention en avant‑vente avec une posture-conseil. Animation de formations et accompagnement à l'adoption des outils. Montée en compétences et accompagnement des usages Copilot et IA Microsoft 365.
Offre d'emploi
Data scientist - (H/F)
CHARLI GROUP
Publiée le
AWS Cloud
Pandas
Python
2 ans
55k-62k €
400-550 €
Courbevoie, Île-de-France
Le Projet Rejoignez une équipe à la pointe de l'innovation pour concevoir, optimiser et industrialiser nos solutions d’Intelligence Artificielle Générative. Au cœur de nos enjeux, vous piloterez l'évolution de nos architectures RAG et de nos systèmes de recommandation pour transformer l'expérience utilisateur. Vous évoluez dans un environnement stimulant où l’expérimentation rencontre les exigences de la mise en production à grande échelle. Vos Missions : En tant qu'Ingénieur IA, votre quotidien s'articule autour de quatre piliers majeurs : 1. Architecture & Développement RAG Conception et optimisation de pipelines hybrides (BM25 + Recherche Vectorielle + Reranking). Expérimentations avancées sur les stratégies HyDE (Baseline, Sélectif, Hybride). Intégration et fine-tuning de LLM via AWS Bedrock (Claude Sonnet / Haiku). 2. Performance & Reranking Déploiement et tests de modèles de reranking (type Qwen) pour affiner la pertinence. Arbitrage constant sur le triptyque : Qualité / Latence / Coût . 3. Data Engineering & Ingestion Gestion du cycle de vie de la donnée : Chunking, génération d’embeddings (Titan) et indexation. Connexion et exploitation des sources de données ( Snowflake, S3 ). 4. Évaluation & Industrialisation Mise en place de frameworks d'évaluation ( RAGAS, DeepEval ) et suivi des métriques clés (nDCG@K, Recall, MRR). Passage à l'échelle des pipelines : robustesse, monitoring et gestion des "edge cases". Votre Stack Technique : Cloud / IA : AWS (Bedrock, Lambda, SageMaker, S3). LLM : Claude (Anthropic). Vector DB & Search : OpenSearch, FAISS. Data : Snowflake, Pandas, Python. Évaluation : RAGAS, DeepEval. Prêt(e) à relever le défi GenAI avec nous ? Postulez dès maintenant !
Mission freelance
Data Engineer Senior
Comet
Publiée le
Azure
Data Lake
Pandas
24 mois
400-650 €
Paris, France
Objectifs et livrables Dans le cadre du lancement de notre nouveau projet, nous recherchons une prestation de Data Engineer senior pour concevoir et mettre en œuvre des pipelines de données dans un environnement serverless exigeant. Le prestataire Data Engineer senior doit être capable de produire, mais aussi de comprendre les enjeux métier, de cadrer les sujets en amont, de faire les bons choix de conception et de diffuser son savoir-faire au sein de la squad. Missions principales : Concevoir et développer des pipelines de données en Python Implémenter des traitements batch et des orchestrations via Azure Durable Functions Manipuler des données volumineuses, notamment au format Parquet Mettre en place des validations de schémas et des contrôles de qualité de données Assurer l’intégration avec des APIs externes Participer à la modélisation et à l’optimisation des bases Azure SQL Mettre en œuvre l’observabilité de la solution : traces, métriques, logs Industrialiser les déploiements via CI/CD • Garantir la qualité et la sécurité du code Contribuer à l’analyse des besoins et au cadrage des sujets avant implémentation Porter une réflexion de conception sur les choix techniques, les compromis et la maintenabilité Utiliser l’IA comme un levier d’ingénierie concret : accélérer l’exécution, explorer des options, challenger des choix, améliorer la qualité et gagner en efficacité, sans déléguer la réflexion ni baisser le niveau d’exigence Partager ses pratiques, expliciter ses choix et contribuer à la montée en compétence de la squad Travailler efficacement dans un environnement international, y compris en anglais sur des sujets techniques et de conception Profil recherché : Capable de comprendre rapidement les enjeux métier et de les traduire en solutions robustes et pragmatiques Capable de penser le problème avant de se focaliser sur l’implémentation Doté d’une vraie expertise d’ingénierie et de conception, au-delà de la seule maîtrise d’un langage, d’un framework ou d’une version spécifique Capable d’utiliser les outils d’IA de manière avancée, critique et pertinente, et non comme un simple générateur de code Proactif, précis et honnête sur ses capacités, ses limites et les risques associés à ses choix Capable de produire de la synthèse utile à la décision Attiré par l’immersion dans les sujets, le partage, la transmission et le travail transverse Compétences requises : Langage : Python Cloud : Expérience des Azure Functions, notamment Durable Functions v2 Capacité à récupérer et exploiter des données depuis différentes sources Azure : Data Lake, Blob Storage, Azure DB Data processing: Pandas Polars PyArrow Langues : Bon niveau d’anglais, permettant de participer de manière autonome à des échanges techniques et de conception, à l’écrit comme à l’oral La valeur attendue réside aussi dans la capacité à comprendre les enjeux, concevoir les bonnes solutions, utiliser l’IA avec discernement, expliciter les choix et faire progresser l’équipe. Compétences demandées PYTHON - Expert POLARS - Confirmé PYARROW - Confirmé PANDAS - Confirmé Fonctions Azure - Expert Niveau de langue Anglais - Courant
Mission freelance
Expert Openshift (Module AI) - Vorstone
VORSTONE
Publiée le
AI
CI/CD
DevOps
6 mois
650-750 €
Bouches-du-Rhône, France
Vorstone recherche un profil d'Expert Openshift (Module AI si possible) pour un client basé dans la région PACA (13) capable d'intervenir sur la mise en place et l’industrialisation d’une plateforme IA / GenAI sécurisée , avec une forte dimension build et structuration du RUN (MCO, gouvernance, exploitation) . Dans le cadre d’un projet stratégique, Red Hat OpenShift est au cœur de la mise en place d’une plateforme IA / GenAI sécurisée et industrialisée . La mission consiste à construire et structurer un environnement robuste, en intégrant dès l’origine les enjeux de sécurité, d’exploitation et de gouvernance. Tout est à construire avec le client, on recherche un profil expérimenté avec vrai apport de valeur. 👉 Vos responsabilités : Mise en place et structuration d’un RUN IA / GenAI sécurisé MCO d’une plateforme en environnement sensible Intégration des processus d’exploitation et de gouvernance Gestion des patchs, upgrades et montées de version OpenShift Contribution à l’industrialisation et à la fiabilité de la plateforme Apport d’expertise et de bonnes pratiques (DevOps / SRE)
Mission freelance
Business Analyst Compliance Marchés financiers- Paris
Net technologie
Publiée le
Big Data
Business Analysis
Business Analyst
6 mois
500-530 €
Paris, France
Dans le cadre d’un programme réglementaire stratégique, nous recherchons un(e) Business Analyst pour accompagner l’industrialisation d’une plateforme de surveillance des activités Front Office (trading & sales). 🎯 Objectif : développer une solution globale de monitoring couvrant communications, ordres et transactions , avec intégration de technologies avancées ( data, NLP, IA ). 🌍 Environnement international – Agile – délais réglementaires exigeants 🚀 Missions Recueil et formalisation des besoins métiers & use cases Rédaction des spécifications fonctionnelles & techniques Coordination avec les équipes Data, IT et Compliance Participation aux sprints Agile et suivi des livraisons Contribution à la stratégie data (analyse multi-sources, NLP/ML) Organisation et pilotage des tests UAT Animation des échanges avec les parties prenantes
Offre d'emploi
Developpeur Java React confirmé / Habilitable
Etixway
Publiée le
J2EE / Java EE
React
1 an
40k-50k €
400-450 €
Rennes, Bretagne
Nous recherchons un développeur Java / React confirmé pour accompagner notre client basé à Rennes dans ses projets de développement d’applications. Dans ce cadre, vos missions seront les suivantes : Assurer le développement back-end en Java (versions récentes) Assurer le développement front-end en React (ou autre framework JavaScript) Mettre en place et maintenir des tests unitaires Réaliser la maintenance corrective et évolutive des applications Intervenir dans un environnement intégrant des outils d’intelligence artificielle (LLM, Copilot, etc.)
Mission freelance
Architecte Data DevOps / FinOps (Expertise GCP)
Nicholson SAS
Publiée le
Apache Airflow
BigQuery
CI/CD
6 mois
650 €
Paris, France
Contexte de la mission Au sein d'une grande entité du secteur de l'énergie, vous interviendrez en tant qu' Architecte Data transverse avec une double expertise DevOps et FinOps . Votre rôle sera stratégique : concevoir des architectures cloud robustes, définir les standards d'urbanisation (Data, IA, MLOps) et piloter l'optimisation des coûts dans un environnement hybride et multi-cloud, avec un focus majeur sur GCP . Missions principales 1. Architecture & Urbanisation Définir les standards d'architecture et les règles d'urbanisation pour les domaines Data, IA, DevOps et MLOps. Concevoir et mettre en œuvre des architectures de données cloud performantes. Rédiger, maintenir et diffuser les bonnes pratiques (Data, On-Premise, Cloud et DevOps). Assurer la gouvernance des modèles et encadrer l'usage des LLM tout en gérant les risques éthiques et réglementaires. 2. Expertise DevOps & MLOps Industrialiser les pipelines de données et de Machine Learning (ML Pipelines). Superviser l'orchestration et la conteneurisation des services. Garantir la mise en œuvre des principes CI/CD et GitOps dans des environnements complexes. 3. Stratégie FinOps & Performance Intégrer les principes FinOps dès la conception (Architecture by design). Optimiser spécifiquement les coûts liés au Cloud et aux ressources GPU (Plan FinOps dédié à l'IA). Définir des modèles de refacturation interne et préconiser les outils de suivi de performance pour superviser les pipelines. Expertise Technique Requise Cloud : Maîtrise avancée de Google Cloud Platform (BigQuery, Composer, Airflow, DataProc, DataFlow). Infrastructure as Code & CI/CD : Terraform, Ansible, Git, Jenkins, GitLab-CI, GitOps, Helm. Conteneurisation : Docker, Kubernetes. Observabilité : ELK, Grafana, Prometheus, Google Monitoring. Environnement : Expérience significative en environnements hybrides (On-premise / Cloud). Modalités pratiques Lieu : Paris – Présence sur site obligatoire 2 à 3 jours/semaine . Date de démarrage : 01/06/2026. Date de fin : 31/12/2026 (Visibilité long terme). Prix d’achat max : 650 € HT / jour.
Mission freelance
PRODUCT LEADER
HAYS France
Publiée le
Agile Scrum
Java
JIRA
3 ans
100-450 €
Lille, Hauts-de-France
Dans le cadre du domaine Logistic & Transport de la SCDP, les composants Pré-logistics couvrent un périmètre large permettant de préparer et de fluidifier l'exécution logistique et sont tous des produits home made developpés par Adeo. - la communication des commandes aux fournisseurs via le portail fournisseur (OTL) - l'anticipation des réceptions sur nos sites logistiques (PLE - Shipment loading) - La gestion des rendez vous fournisseurs pour réception (Getslot) - La gestion des cours et des quais des entrepôts (Yard) - La détection via ML des contrôles de qualités à effectuer en réception (RCK) - La gestion des litiges de réception (GRA) Nous recherchons un Digital Product Manager qui saura animer et piloter cette équipe de développement (14 ETP) en collaboration avec son binôme Business Product Manager. Les principaux enjeux de ce périmètre sont de -Garantir l'excellence digitale et un haut niveau de satisfaction user -Arbitrer et développer les nouvelles features -Accélérer le déploiement des composants dans les BU Adeo -Optimiser la répartition des équipes en fonction des priorités produits -Accompagner le développement de l'équipe pour mettre l'IA au coeur du delivery
Mission freelance
Développeur Python
MLMCONSEIL
Publiée le
Python
6 mois
100-450 €
Nantes, Pays de la Loire
Pour l'un de nos clients nantais, nous recherchons un profil de développeur Python étant en capacité tant d'intervenir sur le développement des outils du périmètre associé. L'outil Gitlab est priorisé pour la gestion. Tâches Le profil devra aussi intervenir sur le maintien ou le développement de la CI/CD. Pour ce profil, nous sommes hors grille client. Pas de tjm cible proposé. Description Développement de scripts python (compétences d'au moins 5 ans). Mise en place et maintien de la CI/CD. Compétences Python Gitlab & chaine de CI/CD Testing manuel Eventuellement des compétences sur la data et un intérêt pour les sujets d'IA/ de ML. Compétences Demandées Obligatoire : Python , GITLAB
Offre d'emploi
Product Owner H/F
█ █ █ █ █ █ █
Publiée le
Scrum
Belfort, Bourgogne-Franche-Comté
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Consultant sécurité / fraude – SI bancaire - Toulouse
Mon Consultant Indépendant
Publiée le
Data management
Direction de projet
6 mois
400-450 €
Toulouse, Occitanie
Consultant Sécurité / Fraude – SI Bancaire 📍 Toulouse 🏢 Présentiel (5j / semaine) ⏱ 6 mois renouvelables – temps plein 💰 TJM : 450 € HT 🚀 Démarrage ASAP Objectif : Renforcer la sécurité des applications bancaires, avec un focus sur la lutte contre la fraude à distance (prévention, détection, réaction). Mission : Définir les dispositifs de lutte contre la fraude sur les parcours clients Rédiger les spécifications sécurité (logs, événements, traces) Réaliser des analyses de risques fraude Concevoir et améliorer les schémas de détection avec le SOC Contribuer aux travaux data / IA pour la détection de fraude Proposer des évolutions SI pour renforcer la résistance à la fraude Intervenir en expertise sur des cas complexes (support métiers / BO fraude) À savoir : Présence sur site requise à Toulouse. Mission à forte dimension expertise, avec enjeux critiques autour de la fraude.
Offre d'emploi
Senior Smart Automation Developer (Dataiku / Agentic AI) H/F
SMARTPOINT
Publiée le
AWS Cloud
Azure
Dataiku
12 mois
60k-70k €
600-700 €
Île-de-France, France
Dans le cadre d'un projet de développement des capacités en Smart Automation & Agentic AI , notre client renforce son équipe avec un Senior Smart Automation Developer . Son ambition : concevoir des automatisations intelligentes capables d’orchestrer les données, les systèmes applicatifs et les agents IA , afin d’optimiser et transformer les processus métiers. Vous interviendrez sur des projets innovants basés sur la plateforme Dataiku et ses capacités LLM Mesh , au cœur des enjeux d’IA générative et d’automatisation avancée.
Offre d'emploi
Tech Lead Power App
CAT-AMANIA
Publiée le
Power Apps
12 mois
40k-58k €
400-580 €
Charleville-Mézières, Grand Est
Dans le cadre du renforcement de notre équipe digitale, nous recherchons un Tech Lead Power Apps / Dataverse pour concevoir, structurer et faire évoluer des applications métier à forte valeur ajoutée au sein de l’écosystème Microsoft Power Platform . Le poste s’inscrit dans une vision long terme autour de l’IA Microsoft , avec l’intégration progressive de Copilot et des usages d’IA générative au cœur des processus métiers. 🧠 Tes missions : Concevoir l’architecture des solutions Power Apps (Canvas & Model-Driven) Définir et optimiser les modèles de données sous Dataverse Encadrer techniquement une équipe de développeurs Power Platform Garantir les bonnes pratiques (sécurité, performance, maintenabilité, gouvernance) Participer aux choix d’architecture et aux arbitrages techniques Concevoir et automatiser des workflows via Power Automate Être force de proposition sur l’usage de Copilot et de l’IA générative dans les applications métiers Accompagner les métiers dans l’adoption des solutions digitales augmentées par l’IA 🤖 IA & vision Microsoft (un vrai plus) Sans être obligatoire, une sensibilité forte à la vision IA de Microsoft est recherchée : Intérêt pour Copilot (Power Platform, Microsoft 365, Dataverse) Compréhension des enjeux d’ IA générative dans les applications métiers Capacité à identifier des cas d’usage concrets : aide à la saisie intelligente analyse de données automatisation avancée assistants métiers Vision responsable de l’IA (sécurité, gouvernance, sobriété des usages) 🔧 Stack & environnement Power Apps (Canvas, Model-Driven) Dataverse Power Automate Copilot / AI Builder / services IA Microsoft Intégrations via API / Connecteurs / Azure AD Environnement Microsoft 365 & Azure
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
779 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois