Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 121 résultats.
Freelance

Mission freelance
Prestation Front-end VueJs – IA (3-7 ans d'exp)

Codezys
Publiée le
Git
Gitlab
Jest

12 mois
450-500 €
Paris, France
Contexte de la mission Un test technique sera requis pour les candidats shortlistés. La prestation, rattachée au département IT, se déroulera au sein d’une équipe multidisciplinaire (développeurs frontend Vue.js, Ruby, Python en data science, QA). L’équipe développe des plateformes de gestion de patrimoine pour plus de 1300 conseillers, en collaboration avec les équipes produit, UX/UI, data science et experts métier. Méthodologie Agile Scrum (sprints de 2 semaines) avec processus CI/CD en amélioration continue. Le groupe financier recourt à trois prestations de développement front-end pour son extension. Objectifs et livrables Développer et maintenir des applications frontend Vue.js 2 et 3 en production. Intervenir sur des projets variés (legacy Vue.js 2, greenfield Vue.js 3) avec approche pragmatique. Concevoir et implémenter des interfaces utilisateur modulaires, performantes et accessibles. Intégrer des interfaces de chatbots et assistants IA utilisant des LLMs. Consommer et intégrer des APIs REST backend. Assurer la qualité du code via des tests et revues. Optimiser performances frontend et expérience utilisateur. Participer aux décisions techniques et challenger les spécifications si nécessaire. Assumer la responsabilité des features déployées ("you build it, you run it"). Contribuer à l'amélioration continue des pratiques de développement. Conditions techniques de la prestation Stack technique : Langages : JavaScript/TypeScript, HTML5, CSS3 Frameworks : Vue.js (2 & 3) Build tools : Vite Gestion d’état : Vuex CSS/UI : Tailwind CSS APIs REST (Ruby on Rails) Intégration IA : chatbots, assistants utilisateur, APIs LLM (Gemini, Claude) DevOps & Infrastructure : Versioning : Git/GitLab CI/CD : GitLab CI, Jenkins Cloud : Heroku, AWS (S3), OVH Conteneurisation : Docker, K8S Monitoring & Qualité : Monitoring : New Relic, Splunk, Gatus, Raygun Qualité : SonarCloud, Lighthouse Tests : Jest, Vitest, Cypress Outils collaboratifs & Méthodologie : Jira, Confluence, Slack, Figma Methodologies : Agile (Scrum/Kanban), GitLab Flow, Code reviews, Clean Code Résultats attendus / Livrables Code & documentation : Code versionné sur GitLab, respectant conventions Vue.js, tests unitaires et E2E, documentation technique. Features & intégrations : Déploiement en production de features fonctionnelles, interfaces IA opérationnelles, gestion proactive des incidents, suivi Jira. Participation active aux code reviews et rituels agiles.
CDI
Freelance

Offre d'emploi
PRODUCT OWNER IA AGENTIC R&D

SMILE
Publiée le
Méthode Agile

1 an
Paris, France
Contexte : Dans le cadre de nos travaux IA et de notre roadmap, nous lançons plusieurs pilotes autour de l’ IA Agentic en phase d’expérimentation. Nous recherchons un Product Owner pour nous accompagner dans cette démarche de test et R&D , avec un fort rôle d’interface entre les besoins métier et la mise en œuvre technique. Missions : Le PO sera intégré aux équipes IA Client, Conseiller CRC/Opérations et pilotera la démarche avec l’ensemble des équipes : Métier, IT, Data Scientists , ainsi qu’avec des partenaires éditeurs. Ses missions incluront : Interaction forte avec le Top Management : restitution claire et synthétique des avancées, mise en avant de la valeur business générée. Orientation Business : traduire les besoins métier en cas d’usage IA Agentic concrets et mesurables, démontrer la valeur ajoutée attendue et définir comment l’IA Agentic sera déployée. Compréhension de l’Asset et de la techno : maîtrise des concepts IA Agentic pour dialoguer avec les équipes techniques, tout en s’appuyant sur le PO Asset pour la mise en œuvre technique détaillée. Travail avec des éditeurs : cadrer, suivre et évaluer les contributions des partenaires dans le cadre des pilotes IA Agentic. Analyse de la réalité opérationnelle et de la performance : mettre en place des indicateurs de suivi (KPI), analyser les résultats, proposer des ajustements. Pilotage complet : gestion du projet de bout en bout, de l’idéation à l’évaluation des pilotes, avec une autonomie totale.
Freelance

Mission freelance
Data Engineer Principal

Nicholson SAS
Publiée le
Architecture
Data analysis
Data Lake

6 mois
550 €
Lyon, Auvergne-Rhône-Alpes
Mission basée à Lyon avec une présence sur site requise trois jours par semaine, ce rôle de Data Engineer Principal s’inscrit dans un contexte exigeant mêlant data engineering et machine learning. Démarrage ASAP pour une mission courant jusqu’au 31 décembre 2026. Au sein des équipes produit, le consultant interviendra sur la conception, la construction et la maintenance du data layer ainsi que des plateformes de données. Il sera responsable de la mise en œuvre d’architectures robustes permettant le traitement et l’analyse de volumes de données importants, en garantissant performance, scalabilité et fiabilité. Le poste implique également la gestion des flux de données et des interfaces associées, avec la création et l’intégration de structures optimisées pour l’exploitation analytique. Une attention particulière sera portée à l’industrialisation et au déploiement d’algorithmes performants, dans une logique d’optimisation continue. Le profil recherché justifie d’au moins 7 ans d’expérience, avec une expertise confirmée en data engineering, architecture data, data management et environnements data lake, ainsi qu’une bonne maîtrise des problématiques machine learning.
Freelance

Mission freelance
Mission freelance - Data / AI Engineer Snowflake - Toulouse

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Airflow
Apache Spark
Python

1 an
300-480 €
Toulouse, Occitanie
Vos missions : Collaborer avec le métier pour concevoir des transformations data / AI pertinentes pour le business, Industrialiser et gérer des pipelines de traitement de données en production, Contribuer à l’implémentation d’évolutions des plateformes data de nos clients, Accompagnement du métier dans le cadrage et le delivery de leurs cas d’usage data Être force de proposition auprès du client dans l’évolution de sa plateforme data Participation éventuelle à des avant-ventes afin d’aider à la conception de solutions techniques pour nos futurs clients Qualifications ? Vos atouts pour nous rejoindre : Cloud Data / IA Platform : Snowflake Orchestrateur : Airflow Framework de calcul distribué : Spark Langage : Python, PySpark, Scala, Java Infrastructure As Code : Terraform CI/CD : GitlabCI, Jenkins Containers : Docker, Kubernetes Versioning : Git
CDI

Offre d'emploi
Data Scientist / Actuariat - CDI F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel
SQL

Niort, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
🚀 Opportunité – Chef de projet Cybersécurité / Data Protection (Toulouse)

OMICRONE
Publiée le
Cybersécurité
Prévention des pertes de données (DLP)
Scrum

2 ans
40k-45k €
400-550 €
Île-de-France, France
Dans le cadre d’un programme stratégique de cybersécurité à l’échelle groupe , nous recherchons un Chef de projet sécurité pour piloter des chantiers autour de la Data Protection (DLP) . 📍 Localisation : Toulouse (3 jours sur site / semaine) ✈️ Déplacements ponctuels à prévoir (Paris / Lyon) 📅 Démarrage : début mai 🎯 Vos missions : • Piloter le déploiement des chantiers cybersécurité au sein des différents établissements • Gérer les plannings et mettre à jour la roadmap projet • Organiser et animer les comités de pilotage et ateliers sécurité • Produire les indicateurs et tableaux de bord de suivi • Accompagner les équipes (PO, équipes Agile) et animer les rituels Scrum • Assurer le delivery global du chantier Data Protection / DLP 🛠 Environnement : • Programme cybersécurité groupe • Sujets Data Protection / DLP • Méthodologies Agile (Scrum) ✅ Profil recherché : • Expérience confirmée en gestion de projet cybersécurité (impératif) • Bonne connaissance des enjeux Data / Data Protection • Expérience en environnement complexe et multi-équipes • Capacité à travailler en autonomie et à piloter plusieurs sujets en parallèle • Anglais professionnel requis • Formation ingénieur ou équivalent
Freelance

Mission freelance
architecte sécurité / IA

W Executive France SAS
Publiée le
Sécurité informatique

3 ans
Paris, France
Bonjour, je recherche pour l'un de mes clients un(e) archi. SECURITE / IA . Skills : IA - sécurité - anglais Mission : -mener des analyses de risques sur les scénarios d’attaque IA -participer aux conceptions et aux revues d’architecture pour apporter la garantie que les IA déployées le sont avec les standards de sécurité et de conformité requises -définir et déployer les solutions adaptées de protection des IA -réalisation d’analyse de risques N'hésitez pas à revenir vers moi pour des informations complémentaires.
Freelance
CDI

Offre d'emploi
Expert Google Workspace Data & IA

Management Square
Publiée le
BigQuery
Google Workspace
IA Générative

1 an
47k-55k €
450-530 €
Nouvelle-Aquitaine, France
Expert Senior Google Workspace, Data & IA 1. Contexte de la mission Dans le cadre d’un programme de transformation digitale, nous recherchons un Expert Senior Google Workspace, Data & IA capable d'assurer l'interface entre l'expertise technique et les enjeux métiers sur l'ensemble de l'écosystème Google Workspace et ses extensions Data & IA . Le profil recherché est un consultant hybride à forte valeur ajoutée , capable d’administrer l’environnement collaboratif, d’analyser la donnée d’usage (BigQuery / Looker), de développer des solutions d’automatisation (AppSheet) et de porter la vision fonctionnelle (RSE, Adoption, IA) auprès des directions métiers. 2. Description des missions Volet Data & Analytics (Expertise Looker & BigQuery) Business Intelligence (Looker) Conception et maintenance de modèles LookML complexes Élaboration de dashboards de pilotage stratégique afin de mesurer l’adoption des outils et la performance des processus métiers Data Analysis (BigQuery) Exploitation avancée des données (logs d’audit Google Workspace, données métiers) via requêtage SQL optimisé Structuration des tables et gestion des coûts de stockage et de calcul Pilotage RSE & Usages Définition et mise en place d’indicateurs de suivi sur l’infobésité et l’hyperconnexion Contribution aux démarches de Qualité de Vie au Travail (QVT) et de sobriété numérique Volet IA Générative (Gemini) & Innovation Centre d’Expertise IA Contribution à la structuration du centre d’expertise IA Rôle de référent technique et fonctionnel sur la solution Gemini Acculturation & Animation Animation d’une communauté d’ambassadeurs IA Organisation de webinars , rédaction de guides de bonnes pratiques et identification de cas d’usage à forte valeur ajoutée Intégration Métier Déploiement de solutions IA opérationnelles : assistance rédactionnelle synthèse documentaire assistants virtuels adaptés aux besoins métiers Volet Google Workspace : Technique & Fonctionnel Expertise Admin & Sécurité Administration avancée de la console Google Workspace Audit et optimisation des configurations de sécurité (DLP, Context-Aware Access) en collaboration avec les équipes cybersécurité Automatisation des Processus Développement d’applications métiers via AppSheet (Low-code) Développement de Google Apps Script pour automatiser les tâches manuelles et remplacer des fichiers Excel complexes Transition Office vers Google Accompagnement technique et méthodologique pour la migration des outils Microsoft (Excel / VBA) vers l’écosystème Google (Sheets / Apps Script / BigQuery) Posture AMOA / PO Assistance au Product Owner dans : la définition de la roadmap produit la rédaction de User Stories la conduite du changement
CDI
CDD
Freelance

Offre d'emploi
ML Engineer Google Cloud (Python, Vertex AI, BigQuery) – H/F

SMARTPOINT
Publiée le
BigQuery
Google Cloud Platform (GCP)
IA

1 an
50k-70k €
480-640 €
Île-de-France, France
Dans le cadre de l’amélioration de la personnalisation de l’expérience utilisateur , nous constituons une équipe dédiée aux sujets de machine learning et de recommandation en production . Cette équipe data est composée : d’un Product Owner d’un Data Scientist d’un Lead ML Engineer d’un Machine Learning Engineer L’environnement technique repose principalement sur Google Cloud Platform avec notamment : Python Vertex AI BigQuery Cloud Run Airflow API REST Terraform GitLab CI/CD L’objectif est de concevoir, industrialiser et déployer des solutions de machine learning en production , tout en assurant leur performance et leur scalabilité. Missions Au sein de l’équipe data et ML, vous interviendrez sur l’ensemble du cycle de vie des projets de machine learning en production . Cas d’usage et mise en production Concevoir un premier cas d’usage de personnalisation de l’expérience utilisateur Déployer les modèles en production sur Google Cloud Mettre en place des tests A/B pour mesurer l’impact des recommandations Assurer le monitoring et l’évaluation des performances des modèles Industrialisation des modèles IA Concevoir et maintenir des pipelines machine learning robustes et scalables Mettre en place les architectures MLOps Exposer les modèles via des API REST (FastAPI ou Flask) Industrialiser les modèles développés par les Data Scientists Mettre en place des workflows CI/CD Architecture et infrastructure data Structurer et organiser le stockage des données Garantir la scalabilité, la sécurité et la stabilité des environnements Déployer des infrastructures via Infrastructure-as-Code (Terraform) Collaborer avec les Data Engineers et équipes techniques Collaboration et amélioration continue Participer aux phases de cadrage, planification et delivery Contribuer à la documentation technique Réaliser une veille technologique sur les technologies ML et IA Appliquer les bonnes pratiques de développement et d’architecture data
Freelance
CDD

Offre d'emploi
Data Engineer Azure Databricks H/F

SMARTPOINT
Publiée le
Apache Spark
Azure
CI/CD

8 mois
50k-60k €
460-500 €
Île-de-France, France
Analyse des traitements existants dans le cadre de projets de migration de données Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake Développement de notebooks Databricks pour des traitements avancés de données Mise en œuvre de solutions de Cloud Data Warehousing , incluant l'optimisation des traitements et le tuning de requêtes SQL Rédaction de la documentation technique (Dossiers d'Analyse Technique, release delivery notes, etc.) Réalisation de revues de code dans une logique de qualité et de bonnes pratiques Conception et exécution de tests unitaires Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés
CDI

Offre d'emploi
Consultant(e) Senior Data Analyst - Luxe & Retail (GCP / BigQuery) F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
BigQuery
SQL

Neuilly-sur-Seine, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDD
CDI

Offre d'emploi
Expert Data Gouvernance H/F

Avanda
Publiée le
Apache Airflow
Collibra
Databricks

12 mois
Paris, France
Nous recherchons, dans le cadre du renforcement des equipes Data Governance d'un de nos clients au rayonnement international, un.e Expert.e Data Governance. Ce poste est base a Paris. Poste ouvert au statut freelance. Au sein de l'équipe Data Governance, l'Expert.e Data Gouvernance interviendra sur l'évolution fonctionnelle et technique du Data Catalog de l'entreprise et son intégration au sein d'un écosystème data & agentic platform en pleine structuration, ainsi que sur des chantiers stratégiques tels que l'AI Governance Framework et la mise en oeuvre d'une démarche Data Quality by Design. Les missions principales Administration, configuration et développement de workflows sur le Data Catalog Collecte et priorisation des besoins utilisateurs Conception et mise en oeuvre des échanges de métadonnées avec la plateforme data (crawling, APIs, connecteurs) Synchronisation avec les équipes architecture Intégration avec le Data Quality Metrics Store Participation au programme Data Contract
Freelance

Mission freelance
Data Architect

Codezys
Publiée le
API
Collibra

12 mois
400-500 €
Lille, Hauts-de-France
Appel d'offres : Recrutement d'un Data Architect pour l'équipe Ressources Humaines Nous recherchons un Data Architect expérimenté pour renforcer notre équipe Ressources Humaines. Le candidat retenu aura pour mission principale d'assurer la cohérence, la conformité et la qualité de nos données RH en intégrant les meilleures pratiques de data architecture au sein de notre organisation. Compétences requises : Conception de modèles conceptuels de données par contexte métier Identification des événements métier en fonction du contexte Définition et formalisation des Business Terms , Business Attributes et Business Events dans Collibra Définition des Indicateurs Clés de Performance (KPI) par contexte métier Définition des règles de qualité pour les Business Terms Analyse de la conformité des APIs avec la data architecture Analyse de la conformité des Data Sets avec la data architecture Réalisation du data lineage pour assurer la traçabilité des données Rédaction de dossiers d'architecture data en réponse aux demandes métier exprimées dans le cadre de plans trimestriels Participation active à la démarche de data governance Objectifs de la mission : Le candidat devra élaborer et maintenir une architecture data cohérente, facilitant l’exploitation et la conformité des données RH, tout en assurant leur qualité et leur conformité aux exigences métiers. Il sera également responsable de formaliser et documenter les modèles conceptuels de données, tout en participant à la gouvernance des données pour garantir leur intégrité et leur conformité aux réglementations en vigueur. Profil recherché : Vous êtes doté d’une solide expérience en architecture data, notamment dans un contexte RH ou administratif. Vous maîtrisez les outils de gestion des métadonnées tels que Collibra, et avez une bonne compréhension des enjeux liés à la conformité des API et des Data Sets. Vos qualités analytiques, votre capacité à documenter précisément et votre esprit de collaboration seront essentiels pour mener à bien cette mission. Modalités : Les candidats intéressés sont invités à soumettre leur proposition détaillée, comprenant leur méthodologie, leur expérience pertinente et leur tarification, dans le respect des délais fixés par cet appel d’offres. Nous restons à votre disposition pour toute information complémentaire et vous remercions de l’intérêt porté à cette opportunité stratégique au sein de notre organisation.
CDI

Offre d'emploi
Business Data Analyst F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
SQL

Batzendorf, Grand Est

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Ingénieur DataOps / DevOps Data (H/F)

emagine Consulting SARL
Publiée le
AWS Cloud
Azure
CI/CD

36 mois
Niort, Nouvelle-Aquitaine
Dans le cadre du renforcement de sa plateforme data, un grand groupe du secteur assurantiel recherche un Ingénieur DataOps afin d’accompagner l’industrialisation, la fiabilisation et l’exploitation de ses environnements data. Vous interviendrez au sein d’une équipe dédiée à la performance et à la stabilité des services data, avec pour objectif d’assurer leur disponibilité et leur évolutivité. Vous participerez activement à la mise en place et à l’amélioration des pipelines de déploiement (CI/CD), à l’automatisation des processus, ainsi qu’à la gestion des environnements de production et de test. Vous serez également impliqué dans la supervision des systèmes, la gestion des incidents, et la mise en œuvre des exigences non fonctionnelles (sécurité, performance, scalabilité). Enfin, vous contribuerez à l’amélioration continue des pratiques DataOps et à la documentation des solutions mises en place.
Freelance

Mission freelance
Data Engineer industriel

MLMCONSEIL
Publiée le
Dataiku
IBM Maximo
Microsoft Excel

6 mois
100-500 €
Paris, France
Profil Data senior orienté environnement industriel, capable de reprendre, structurer et fiabiliser des données complexes. Maîtrise de SQL, Python et Excel/VBA pour l’analyse, l’automatisation et le reporting. Expérience requise sur Dataiku et IBM Maximo pour l’ingestion, la normalisation et la gestion des données de maintenance. Capacité à comprendre les enjeux métiers (maintenance, référentiels) et à les traduire en modèles de données exploitables. . . . . . . . .
4121 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous