Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 306 résultats.
Mission freelance
Data LLM Engineer - (H/F)
Atlas Connect
Publiée le
Large Language Model (LLM)
Machine Learning
Python
12 mois
520-600 €
Île-de-France, France
Dans le cadre de projets innovants autour de l’Intelligence Artificielle et plus particulièrement des Large Language Models (LLM) , nous recherchons un Data LLM Engineer pour rejoindre une équipe spécialisée dans la mise en place de solutions IA génératives. Missions Concevoir, développer et optimiser des pipelines de données adaptés à l’entraînement et au fine-tuning de modèles LLM. Participer à la préparation, la structuration et l’étiquetage de jeux de données massifs et hétérogènes. Intégrer et déployer des modèles de langage dans des environnements de production. Mettre en place des mécanismes d’évaluation, monitoring et amélioration continue des performances des modèles (metrics, hallucinations, biais, robustesse). Collaborer étroitement avec les Data Scientists, MLOps et Software Engineers pour industrialiser les solutions IA. Assurer une veille technologique sur les dernières avancées en NLP, LLM et IA générative.
Mission freelance
Data Scientist / MLOps Engineer
VISIAN
Publiée le
DevOps
2 ans
400-550 €
Île-de-France, France
Le pôle est composé d'une vingtaine de personnes dont une majorité de Deep Learning Scientists. Pour produire les détecteurs, l'équipe s'appuie sur une stack d'outils internes permettant l'industrialisation du travail des Deep Learning Scientist. La stack se divise en : Une stack d'outils génériques (AI Platform) servant toutes nos lignes de produit, développée par l'équipe AI engineering. Une stack d'outils spécifiques à la ligne de produit IMINT, développée par l'équipe elle-même. La mission sera d'une durée minimale de 3 mois. La personne travaillera en binôme avec un MLEng de l'équipe. Disposer d'une habilitation défense est un plus pour la mission. La capacité à venir sur le site parisien 2 jours par semaine est aussi un plus. Mission Assurer la maintenance de la stack d'outils de l'équipe et notamment : Participer à rendre les algorithmes IA compatibles d'architecture GPU Blackwell Mettre à jour les dépendances de la codebase (Python, CUDA) Participer au développement de nos outils de MLOps en général Et aussi : Mettre en place les processus permettant une maintenance pro-active et continue de la codebase Participer à la montée en compétence des data scientists de l'équipe sur leur compétence SW Participer à la mise en place de notre stack environnement classifié Stack technique Python (3.10+), PyTorch et TensorFlow pour nos frameworks de deep learning PostgreSQL (PostGIS) pour la gestion de nos bases de données, Airflow, des dockers orchestrés par Nomad de Hashicorp Environnements DevOps utilisant principalement Ansible, Terraform pour l'automatisation et la suite Prometheus / Grafana pour le monitoring Cloud multi-fournisseurs (AWS & OVH) et environnement de développement classifié on-premise Compétences requises Une formation en Software Engineering, en apprentissage automatique, en vision par ordinateur ou dans un domaine similaire Au moins 5 ans d'expérience en développement back-end en Python et / ou en ML engineering Techniquement : D'une très bonne connaissance de Python D'une expérience en MLOps et d'une connaissance de TensorFlow, PyTorch, CUDA Une connaissance de la manipulation de données géospatiales est un plus En terme de soft skills : Vous êtes pédagogue et aimez coacher vos collègues pour aider les Deep Learning Scientists
Offre d'emploi
Scrum Master Data - Niort
CAT-AMANIA
Publiée le
Agile Scrum
BI
SQL
2 ans
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous sommes actuellement à la recherche d'un Scrum Master orienté Data pour l'un de nos clients sur le bassin niortais : Animer les cérémonies Scrum (Daily, Sprint Planning, Review, Rétrospective) Garantir le respect du cadre Scrum Accompagner le Product Owner dans la gestion et la priorisation du backlog Suivre les indicateurs de performance (velocity, burndown, etc.) Faciliter la collaboration entre Data Engineers, Data Analysts et Data Scientists Identifier et lever les obstacles rencontrés par l’équipe Promouvoir une culture d’amélioration continue Favoriser la communication entre équipes techniques et métiers
Offre d'emploi
Senior Data & AI Engineer / Microsoft Fabric & Azure AI H/F
Les Filles et les Garçons de la Tech
Publiée le
Azure AI
Microsoft Fabric
Microsoft Power BI
44k-55k €
Île-de-France, France
Contexte Dans le cadre du renforcement de nos équipes Data & Intelligence Artificielle, nous recherchons un(e) Senior Data & AI Engineer disposant d’une forte expertise sur l’écosystème Microsoft Fabric et Azure AI , capable d’intervenir sur des projets à forte valeur ajoutée mêlant data, analytics avancés et IA générative. Missions principales En tant que Senior Data & AI Engineer, vous interviendrez sur l’ensemble de la chaîne data & IA : Concevoir, développer et maintenir des architectures data modernes basées sur Microsoft Fabric Mettre en œuvre des solutions IA (incluant l’IA générative) via Azure AI Foundry / AI Studio / Azure OpenAI Développer des pipelines de données robustes et scalables (ingestion, transformation, exposition) Implémenter des cas d’usage IA : RAG , Prompt Engineering, évaluations de modèles, déploiements Concevoir et maintenir des modèles analytiques et dashboards via Power BI / DAX Garantir la qualité, la sécurité et la gouvernance des données (Purview, sécurité Azure) Participer aux bonnes pratiques d’ingénierie : tests, CI/CD, observabilité, documentation Travailler en collaboration avec les équipes métiers, data, cloud et sécurité Être force de proposition sur les choix techniques et les architectures Environnement technique Data & Analytics : Microsoft Fabric (OneLake, Lakehouse, Data Factory, Power BI) DAX, Power Query IA & GenAI : Azure AI Foundry / AI Studio Azure OpenAI Azure AI Search Prompt Flow, RAG, évaluations, déploiements Langages : Python, SQL DevOps & Qualité : Git, CI/CD, bonnes pratiques de tests, observabilité Sécurité & Gouvernance : Azure Security, Microsoft Purview
Offre d'emploi
Lead Cloud Engineer Data & AI
Groupe Aptenia
Publiée le
AWS Cloud
DevSecOps
MLOps
6 mois
Occitanie, France
Lead Cloud Engineer Data & IA pour un programme R&D d’envergure. Conception, automatisation et exploitation de plateformes cloud AWS enterprise, sécurisées et scalables pour soutenir des cas d’usage Data, ML, MLOps et IA. Déploiement de landing zones, pipelines Data/MLOps et Infrastructure-as-Code. Intégration de la sécurité by-design, de la conformité GxP/GDPR et d’une posture audit-ready. Leadership technique, animation de communautés d’ingénierie et collaboration étroite avec équipes data, produit, sécurité et compliance.
Offre d'emploi
Consultant Qlink Sense BI
AGH CONSULTING
Publiée le
Qlik
Snowflake
6 mois
Île-de-France, France
Dans le cadre de projets Data chez l’un de nos clients grands comptes, nous recherchons des consultants Data orientés Qlik disposant d’un vernis sur Snowflake, pour renforcer des équipes BI/Data existantes. Missions principales ▪ Concevoir, développer et maintenir des tableaux de bord sous Qlik Sense / QlikView ▪ Analyser les besoins métiers et les traduire en solutions BI pertinentes ▪ Exploiter des données issues de Snowflake (requêtes, compréhension du modèle, optimisation basique) ▪ Participer à l’amélioration des modèles de données et des performances des reportings ▪ Collaborer avec les équipes Data (BI, Data Engineers, métiers)
Offre d'emploi
Développeur python (H/F)
STORM GROUP
Publiée le
Python
40k-45k €
Île-de-France, France
Contexte : Prestation au sein de l’équipe Architecture cloud et API composée de collaborateurs experts la mise en œuvre d’architectures orientées services. Missions : En qualité de développeur python / Data Engineer, votre rôle et vos missions consistent à : * Participer à la conception/développement sur le projet Portfolio Clarity pour NIM (python sur lambdas AWS) * Réaliser les tests unitaires et d'intégration * Revue du code et amélioration de l'architecture applicative existante * Documenter les réalisations * Intégrer les développements à la chaine de CI/CD
Mission freelance
Data Product Owner
SKILLWISE
Publiée le
Azure
MySQL
Python
3 mois
400-550 €
La Défense, Île-de-France
Nous recherchons pour un de nos clients un Data Product Owner qui sera le responsable de la vision analytique d’un domaine métier. Son rôle est de comprendre en profondeur les besoins des utilisateurs, de transformer ces besoins en produits data concrets et de garantir que les équipes techniques livrent des solutions fiables, utiles et alignées sur les priorités de l’entreprise. Il travaillera au quotidien avec les métiers, les Data Engineers, les Data Analysts et les équipes IT pour créer de la valeur grâce aux données.
Mission freelance
Data ingénieur Dataiku/GCP (H/F)
HC
Publiée le
BigQuery
Dataiku
Google Cloud Platform (GCP)
1 an
500 €
Paris, France
Le poste s'inscrit dans un contexte stratégique de lutte contre la fraude interne et de sécurité financière au sein de la Direction Risques & Conformité du Groupe. L'enjeu principal est de renforcer l'équipe existante avec un profil Data Engineer hands-on capable de prendre en charge de bout en bout la construction, l'industrialisation et le déploiement de scénarios d'alertes fraude. Le candidat devra être autonome sur les aspects techniques (développement de pipelines, requêtage SQL avancé, déploiement en production) tout en adoptant une posture collaborative et pédagogue auprès des data analysts et des équipes métiers. La maîtrise opérationnelle de Dataiku et de l'environnement GCP/BigQuery est cruciale, l'accent étant mis sur l'exécution technique plutôt que sur l'expertise fonctionnelle métier.
Mission freelance
Directeur de Projet/ Chef de Projet
Codezys
Publiée le
CRM
Gestion de projet
6 mois
450-510 €
Marly, Hauts-de-France
Nous recherchons une expertise en gestion de projets data transversaux au sein de systèmes d'information complexes. Forts de 22 années d'expérience, nous sollicitons un profil disposant d'une compréhension approfondie des enjeux stratégiques liés à la donnée, tels que la gestion des données de référence (MDM), les référentiels consolidés, ainsi que les migrations de bases de données. Une maîtrise avancée des concepts de Data Gouvernance et de Data Mesh est essentielle pour mener à bien ce projet. Nous apprécions particulièrement une vision globale à 360°, intégrant une compréhension claire des enjeux d'architecture data et des interactions entre les équipes techniques et métiers. Le candidat doit également démontrer sa capacité à piloter des équipes multidisciplinaires, incluant des data engineers, des data analysts et des développeurs, tout en ayant une appétence pour les projets de transformation et de convergence des systèmes d'information. Cela concerne notamment la modernisation, la standardisation et l'optimisation des infrastructures data. Objectifs et livrables Nos objectifs principaux sont les suivants : Élaborer et déployer des stratégies efficaces pour la gestion des données de référence (MDM) et des référentiels. Concevoir et réaliser des projets de migration de bases de données et de systèmes d'information. Mettre en œuvre des pratiques de Data Gouvernance solides et déployer le concept de Data Mesh. Coordonner et diriger des équipes pluridisciplinaires afin d'assurer la réussite des projets. Moderniser et standardiser les architectures systèmes pour améliorer leur efficacité et leur performance globale.
Mission freelance
DATA SCIENTIST - sénior
Geniem
Publiée le
Data science
Dataiku
Machine Learning
6 mois
Lille, Hauts-de-France
Pour compléter une équipe transverse : Data Engineer, Data Scientist, Data Analyst et MLOps Elle assure également le lien avec la Global Tech & Data Platform . Cette plateforme construit et maintient les produits liés à nos infrastructures et notre transformation vers le Cloud GCP, assurant ainsi l’efficacité opérationnelle sur lesquelles reposent nos plateformes métiers. Votre mission : En lien avec notre philosophie Data In Product, vous êtes responsable de : La création de solutions et applications ML/IA de pointes, pour mise en production, La modélisation et l’industrialisation de modèles produits au service des BUs de la plateforme, L’élaboration d’un cadre de bonnes pratiques au sein de la guilde Data du domaine, L’accompagnement et l’acculturation des métiers sur les bonnes pratiques de l’exploitation de la data. Vous êtes vous-même sensible à l’approche Data Driven de nos produits, L’intégration des applications ML dans nos produits, en lien avec les équipes métiers, La mise en place de modèles statistiques pour résoudre les problématiques identifiées, La collecte de données, la construction de Data Marts et le déploiement de modèles (end-to-end PoC), La connaissance des métriques de base, et les principes d’évaluation de la qualité des modèles obtenus, et leur relation avec les indicateurs de performances Métier, La veille technologique pour orienter et être force de proposition sur l’animation de la backlog du Data Socle COMPÉTENCES REQUISES/ Technique : Python, SQL, GCP (BigQuery, GCS, ...), Pipeline MLOps, Linux, Modélisation de données Méthodologique : Agilité, Github Langues : Français, Anglais
Mission freelance
Tech Lead Databricks ( H/F)
ALLEGIS GROUP
Publiée le
Apache Kafka
Databricks
Scala
6 mois
150-620 €
Paris, France
Teksystems recherche pour un de ses client grand compte un Tech Lead Databricks ( H/F) . Missions principales1. Ingestion & Traitement de Données Concevoir et mettre en œuvre des pipelines d’ingestion de données en temps réel via Kafka . Assurer le traitement, la préparation, la qualité et la structuration des données sur la plateforme Databricks Data Intelligence Platform . Développer et optimiser les jobs de transformation avec Spark (Scala, PySpark si nécessaire). 2. Modélisation & Architecture Concevoir et maintenir des modèles de données robustes , scalables et alignés avec les besoins métiers. Définir une architecture technique viable, performante et pérenne , en lien avec les standards Data de l’entreprise. Encadrer les choix technologiques et identifier les solutions les plus adaptées aux cas d’usage. 3. Leadership Technique & Coordination Animer les ateliers techniques avec l’équipe Data (squad, data engineers, data analysts…). Assurer la gestion des risques techniques , anticiper les points de blocage et sécuriser la roadmap. Fournir un guidage technologique basé sur une expertise éprouvée des projets DATA. Accompagner la squad dans les bonnes pratiques de développement, de CI/CD et de gouvernance Data. 4. Méthodologie & Qualité Travailler dans un cadre Agile (Scrum / Kanban), avec participation active à la planification, aux revues et aux rétrospectives. Garantir la qualité des livrables : documentation, code propre, tests, performance.
Mission freelance
Architect MS Fabric
TAHYS RECRUITMENT SOLUTIONS
Publiée le
Microsoft Fabric
12 mois
France
Architec t MS Fabric (Framework & Responsable d’équipe) Le rôle Vous rejoindrez notre équipe projet en tant que Lead Expert MS Fabric pour un client international majeur. Votre mission sera de concevoir et de livrer un framework d’ingestion et de transformation scalable, de niveau production , qui constituera la colonne vertébrale de leur plateforme data globale. Responsabilités principales Responsabilité du framework : Concevoir et développer un framework personnalisé et piloté par les métadonnées en utilisant Python (PySpark) et MS Fabric (Notebooks, Pipelines, Lakehouses). Delivery de bout en bout : Assumer l’entière responsabilité des livrables du projet, incluant un code de haute qualité, une documentation d’architecture technique complète et la livraison finale du framework. Leadership d’équipe : Manager et encadrer une équipe de data engineers juniors, en garantissant la qualité du code via des revues rigoureuses et un accompagnement technique. Interaction client : Agir en tant que point de contact technique au sein de l’équipe de delivery, en veillant à ce que la solution soit alignée avec l’échelle internationale du client et les standards de sécurité Azure.
Mission freelance
Tech Lead Infra GCP H/F
SPIE ICS
Publiée le
Cloud
Google Cloud Platform (GCP)
1 an
400-550 €
Malakoff, Île-de-France
Nous recherchons pour l'un de nos clients un(e) Tech Lead Senior pour piloter des applications clés du Chief Digital & Marketing Office (CDMO). Vous intégrerez une équipe pluridisciplinaire composée de développeurs Full Stack, Data Scientists, Data Engineers, Product Owners et QA. Votre mission est d’assurer la performance et l’optimisation des assets médias, de la stratégie globale à l’activation locale. Vos missions Superviser et accompagner l’équipe technique. Concevoir des architectures et solutions techniques adaptées. Gérer les applications intégrant des briques d’IA sur Front, Back, Cloud et DevOps. Maîtriser les services Google Cloud Platform (GCP), notamment BigQuery pour le sourcing des données. Être le référent technique auprès des équipes Cybersécurité, Data Privacy et Enterprise Architecture. Résoudre les problématiques techniques : debug, optimisation, migration d’infrastructure. Assurer le déploiement, la supervision et l’optimisation des pipelines de données et du code IA.
Mission freelance
Data Architect
Groupe Aptenia
Publiée le
Architecture
Data governance
Data quality
3 ans
Île-de-France, France
En tant que Data Architect , vous serez en charge de concevoir et mettre en œuvre une architecture data unifiée , intégrant des systèmes hétérogènes (dont ceux issus de l’acquisition de plusieurs entités). Votre objectif : simplifier, standardiser et optimiser les flux et le stockage des données pour en faire un levier stratégique. Vos responsabilités clés : ✔ Conception d’une architecture data cohérente : Définir une feuille de route technique pour intégrer les systèmes legacy et modernes dans une architecture homogène. Proposer des solutions pour réduire l’hétérogénéité des données et des plateformes. ✔ Pilotage de la migration et de l’intégration des données : Superviser la transformation et la migration des données vers des environnements cibles (data warehouses, data mesh). Garantir la qualité, la cohérence et l’accessibilité des données. ✔ Collaboration avec les équipes Data et IT : Travailler avec les Data Engineers et Data Analysts pour concevoir des pipelines de données efficaces. Être un relais technique entre les équipes IT et métiers.
Mission freelance
Chef de projet finance de marché
JobiStart
Publiée le
Agile Scrum
Analyse financière
2 ans
400-670 €
Île-de-France, France
Tâches principales : Piloter des projets IT complexes en mode Agile (Scrum / SAFe) et Waterfall hybride , de la phase de cadrage jusqu'à la mise en production et le go-live Définir et suivre le plan projet : périmètre, budget, planning, ressources, jalons et livrables Animer les comités de pilotage (Steerco) , les réunions de suivi et les ateliers de conception avec les équipes métiers et techniques Gérer le RAID Log (Risks, Assumptions, Issues, Dependencies) et mettre en place des plans de mitigation adaptés Coordonner les équipes pluridisciplinaires : Développeurs, Architectes Solution, Data Engineers, QA / UAT, DevOps Assurer le suivi budgétaire et la gestion des ressources internes et prestataires externes (TJM, staffing, montée en compétence) Contribuer aux projets de transformation réglementaire (FRTB, EMIR Refit, Bâle IV, DORA) en lien avec les équipes Compliance et Risk Rédiger les Business Requirements Documents (BRD) , les Functional Specifications et les livrables de gouvernance projet Piloter les phases de recette (SIT / UAT) , de gestion du changement ( Change Management ) et de déploiement en production Assurer un reporting régulier auprès des sponsors et du middle management via des tableaux de bord ( PowerBI, Confluence, JIRA )
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
306 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois