Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 267 résultats.
CDI

Offre d'emploi
Data engineer (H/F)

Publiée le

35k-40k €
Lille, Hauts-de-France
Télétravail partiel
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
CDI
Freelance

Offre d'emploi
Lead Cloud Engineer Data & AI

Publiée le
AWS Cloud
DevSecOps
MLOps

6 mois
Occitanie, France
Télétravail partiel
Lead Cloud Engineer Data & IA pour un programme R&D d’envergure. Conception, automatisation et exploitation de plateformes cloud AWS enterprise, sécurisées et scalables pour soutenir des cas d’usage Data, ML, MLOps et IA. Déploiement de landing zones, pipelines Data/MLOps et Infrastructure-as-Code. Intégration de la sécurité by-design, de la conformité GxP/GDPR et d’une posture audit-ready. Leadership technique, animation de communautés d’ingénierie et collaboration étroite avec équipes data, produit, sécurité et compliance.
Freelance

Mission freelance
Data Scientist

Publiée le
SQL

6 mois
470-570 €
Île-de-France, France
Télétravail partiel
Contexte et mission Nous recherchons un Data Scientist expérimenté pour renforcer une équipe sur un projet en développement. La mission principale consiste à développer et exploiter des bases de données internes pour produire des KPI précis et soutenir des projets de R&D. Vous intégrerez un projet en pleine expansion, avec pour objectif de construire une base de données centralisée , de la nettoyer, enrichir et exploiter pour créer des indicateurs clés de performance et faciliter les décisions opérationnelles. La mission inclut également l’audit et l’analyse de données brutes , la proposition de modèles prédictifs et la collaboration avec différents services pour optimiser les processus et l’analyse des données. Localisation IDF / Toulouse Responsabilités Exploiter, transformer et analyser des données brutes provenant de multiples sources. Proposer et développer des indicateurs KPI pertinents pour différents services. Créer et maintenir des bases de données enrichies et documentées , incluant les données nécessaires aux analyses et chiffrages. Réaliser des audits de données pour identifier les anomalies, corriger et standardiser les jeux de données. Prototyper des solutions et outils d’analyse en Python (Shiny, Polars, Plotly). Servir d’ interface entre les équipes métiers et techniques pour comprendre les besoins et proposer des solutions adaptées. Documenter les processus, modèles et spécifications techniques avec rigueur. Être force de proposition pour de nouveaux projets et outils d’analyse, notamment dans le domaine de la cybersécurité et de l’ intelligence artificielle appliquée aux données .
CDI

Offre d'emploi
Architecte data engineering - Industrie H/F

Publiée le

35k-45k €
Saint-Égrève, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte du projet : Viveris intervient auprès de ses clients dans le cadre de la mise en oeuvre et de l'évolution de plateformes Data à fort enjeu stratégique. Dans ce cadre, nous recherchons un Data Architect qui interviendra en interface avec les directions métiers, les équipes de transformation et d'ingénierie. L'objectif de ce poste consiste à définir, cadrer et accompagner l'architecture Data des projets, depuis l'identification des besoins jusqu'à la mise en oeuvre des solutions, en garantissant l'alignement avec la politique Data et les standards technologiques du Groupe. Responsabilités : Réaliser les études de cadrage de l'architecture Data en s'appuyant sur une expertise des technologies clés de la plateforme Data (stockage, traitement, restitution, exploration, référentiels, ML / IA). Définir et mettre en oeuvre les architectures Data en maîtrisant les formalismes de modélisation (BPMN, modèles conceptuels et logiques de données). Projeter, décliner et accompagner la politique générale de la donnée sur son périmètre (directions métiers, entités). Intervenir dès l'identification des besoins métiers afin d'accompagner les équipes projets et de développement dans la déclinaison des patterns d'architecture Data. Maintenir la roadmap des services Data et accompagner les projets dans la mise en oeuvre de leurs produits selon les meilleures pratiques. Collaborer avec les architectes d'entreprise et techniques afin d'assurer la cohérence globale et l'alignement avec les standards technologiques (Cloud, conteneurisation, API Management).
Freelance

Mission freelance
Architecte entreprise

Publiée le
Architecture
IA

1 an
Lille, Hauts-de-France
Télétravail partiel
Intitulé du poste Architecte d’Entreprise – Domaines Customer & Marketing Contexte de la mission Dans le cadre du cadrage et de la structuration d’initiatives métier à forte valeur ajoutée, nous recherchons un Architecte d’Entreprise capable d’intervenir sur des sujets Customer et Marketing. Le rôle s’inscrit dans une démarche de transformation et d’urbanisation du système d’information, avec un fort enjeu de cohérence, de pérennité et de création de valeur. Missions principales Cadrer les initiatives métier sous l’angle de l’architecture d’entreprise et de l’architecture solution Explorer, analyser et challenger les besoins exprimés par les métiers Co-concevoir les solutions avec les équipes impactées et les architectes des autres périmètres Définir les principes d’architecture cible en garantissant l’alignement avec la stratégie SI Formaliser les dossiers d’architecture selon les standards et templates en vigueur Présenter et défendre les choix d’architecture lors des instances de revue d’architecture Piloter et réduire la dette d’architecture sur le périmètre de produits confié Contribuer à l’amélioration continue des pratiques d’architecture d’entreprise Environnement fonctionnel et technique Architecture d’entreprise et architecture solution Domaines Customer, Marketing et parcours client Enjeux data, intégration, interopérabilité et scalabilité Prise en compte des contraintes réglementaires et de conformité Compétences requises Design d’architecture solution : niveau expert, impératif Intelligence artificielle : niveau confirmé, important Marketing automation : niveau confirmé, appréciable GDPR / conformité réglementaire : niveau confirmé, appréciable Langues Français courant : impératif Anglais professionnel : impératif Livrables attendus Dossiers d’architecture complets et argumentés Schémas d’architecture et trajectoires d’évolution Éléments de cadrage et d’aide à la décision pour les instances d’architecture
Freelance

Mission freelance
Data Scientist / MLOps Engineer

Publiée le
DevOps

2 ans
400-550 €
Île-de-France, France
Télétravail partiel
Le pôle est composé d'une vingtaine de personnes dont une majorité de Deep Learning Scientists. Pour produire les détecteurs, l'équipe s'appuie sur une stack d'outils internes permettant l'industrialisation du travail des Deep Learning Scientist. La stack se divise en : Une stack d'outils génériques (AI Platform) servant toutes nos lignes de produit, développée par l'équipe AI engineering. Une stack d'outils spécifiques à la ligne de produit IMINT, développée par l'équipe elle-même. La mission sera d'une durée minimale de 3 mois. La personne travaillera en binôme avec un MLEng de l'équipe. Disposer d'une habilitation défense est un plus pour la mission. La capacité à venir sur le site parisien 2 jours par semaine est aussi un plus. Mission Assurer la maintenance de la stack d'outils de l'équipe et notamment : Participer à rendre les algorithmes IA compatibles d'architecture GPU Blackwell Mettre à jour les dépendances de la codebase (Python, CUDA) Participer au développement de nos outils de MLOps en général Et aussi : Mettre en place les processus permettant une maintenance pro-active et continue de la codebase Participer à la montée en compétence des data scientists de l'équipe sur leur compétence SW Participer à la mise en place de notre stack environnement classifié Stack technique Python (3.10+), PyTorch et TensorFlow pour nos frameworks de deep learning PostgreSQL (PostGIS) pour la gestion de nos bases de données, Airflow, des dockers orchestrés par Nomad de Hashicorp Environnements DevOps utilisant principalement Ansible, Terraform pour l'automatisation et la suite Prometheus / Grafana pour le monitoring Cloud multi-fournisseurs (AWS & OVH) et environnement de développement classifié on-premise Compétences requises Une formation en Software Engineering, en apprentissage automatique, en vision par ordinateur ou dans un domaine similaire Au moins 5 ans d'expérience en développement back-end en Python et / ou en ML engineering Techniquement : D'une très bonne connaissance de Python D'une expérience en MLOps et d'une connaissance de TensorFlow, PyTorch, CUDA Une connaissance de la manipulation de données géospatiales est un plus En terme de soft skills : Vous êtes pédagogue et aimez coacher vos collègues pour aider les Deep Learning Scientists
CDI

Offre d'emploi
DATA PLATFORM GCP / KUBERNETES CONFIRME

Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Hadoop

Île-de-France, France
Télétravail partiel
1. Conception & expertise data plateforme Concevoir et déployer des services data cloud native (batch et/ou streaming) Participer à la définition et à l’évolution des architectures data sur GCP Accompagner les équipes projets dans l’adoption de Kubernetes et des bonnes pratiques DataOps Challenger les choix techniques et proposer des solutions pérennes et scalables 2. Industrialisation DevOps / data Mettre en place des pipelines de déploiement et d’exploitation de services data Automatiser l’industrialisation des solutions data (infra as code, CI/CD) Contribuer à la fiabilité, la performance et l’observabilité des plateformes data 3. Accompagnement & transverse Intervenir en support d’expertise auprès des équipes data du groupe Participer à l’animation de communautés techniques (data, plateforme, open source) Contribuer à la veille technologique, aux POC et au partage de retours d’expérience
Freelance

Mission freelance
Data Product Manager en Data Lab - Rennes

Publiée le
Google Cloud Platform (GCP)
Python
SQL

3 mois
520-570 €
Rennes, Bretagne
Télétravail partiel
Au sein du Data Lab, nous recherchons un Data Product Manager freelance. Nous avons besoin d'un profil pivot, capable de traduire des besoins métier en solutions concrètes. Le poste est résolument hybride : il ne s'agit pas seulement de suivre un planning, mais bien de comprendre ce qui se passe sous le capot pour fluidifier les échanges entre les métiers et l'équipe technique. Les sujets du Data Lab sont divers, Data Science, Data Modelling, Tableaux de bord, IA générative et automatisation des processus métier. Nous ne cherchons pas un gestionnaire de projet classique, mais un profil également capable de faire, de manipuler la donnée et de réaliser des premiers prototypes. • Hybride & Transverse : Pouvoir comprendre les besoins métiers et les traduire en specs fonctionnelles et techniques. Pouvoir "traduire" le besoin vers les équipes de développement. • Technique : Être capable de manipuler la donnée (SQL) et de créer des dashboards simples (type Looker Studio) pour prototyper. • Pragmatique (Esprit Data Lab) : Pouvoir travailler en mode MVP rapide et testable • Relationnel : savoir créer du lien, fluidifier les blocages et avec une véritable aisance relationnelle. Vos responsabilités Cadrage & Spécifications (Le cœur du réacteur) • Traduire le besoin métier en spécifications fonctionnelles claires. • Rédiger les spécifications techniques pour guider les Data Engineers (modélisation, règles de gestion). • S'assurer que ce qui est demandé est techniquement viable sur notre stack. Pilotage & "Faire" • Gérer le backlog et prioriser selon la valeur business. • Effectuer les recettes techniques et fonctionnelles : vous devez pouvoir requêter la base pour valider les livrables avant de les présenter au métier. • Participer activement à la vie du Data Lab et à l'amélioration des processus.
Freelance

Mission freelance
Data manager IA Act / data gouvernance

Publiée le
Data governance
Gouvernance
IA

1 an
650-800 €
Paris, France
Télétravail partiel
Dans le cadre d'une création de poste, nous recherchons un(e) data manager sénior pour intervenir sur de la data gouvernance et de l'IA act. Le projet vise à accompagner le déploiement du domaine de conformité réglementaire. Vous apporterez un support méthodologique, organisationnel et opérationnel pour mettre en œuvre les dispositifs de conformité du Groupe aux réglementations sur le partage de données. Vous serez amené à : Contribuer à la définition de la feuille de route du Groupe en réponse aux exigences réglementaires Animer et coordonner des groupes de travail pluridisciplinaires (Data, sécurité, juridique, IT, métiers) Produire les livrables nécessaires à l'aide à la décision (analyses, synthèses, plans d'action) Assurer la sensibilisation des acteurs et l'appropriation des nouvelles gouvernances, en s'appuyant sur les démarches existantes (programme Data Act)
Freelance

Mission freelance
Data Platform Engineer

Publiée le
AWS Cloud
Python

12 mois
600-650 €
Paris, France
Télétravail partiel
Objectifs Votre mission est de responsabiliser et de faire monter en compétence notre communauté de plus de 50 data engineers et data scientists. Agissant comme le lien essentiel entre les feature teams et les ingénieurs de la plateforme, vous serez le garant de l’adoption et de l’évolution de notre plateforme data en fournissant un support technique opérationnel, en partageant les bonnes pratiques et en animant des initiatives de partage de connaissances. Grâce à un engagement proactif, un support direct et une collecte continue de feedback, vous favoriserez un environnement collaboratif, innovant et à fort impact — garantissant que notre plateforme s’adapte en permanence et délivre une valeur maximale à ses utilisateurs. Missions principales 1. Support technique : Accompagner les data engineers et data scientists dans leurs problématiques techniques en fournissant des solutions opérationnelles, des conseils, des bonnes pratiques et un support via des interactions directes au sein de leurs équipes. S’assurer que la dette technique est identifiée, comprise et gérée via des plans d’actions, et participer aux tâches sous-jacentes. Fournir des outils pour aider à gérer cette dette (tests, automatisation, agents IA, …). Collaborer avec les équipes data platform et support afin de garantir que les problèmes au sein des pipelines data et de la plateforme data sont identifiés et résolus, améliorant ainsi l’expérience développeur globale. 2. Évangélisation : Promouvoir l’adoption de la plateforme data par une utilisation quotidienne, en démontrant sa valeur auprès des utilisateurs existants. Partager avec la communauté de pratique et les équipes internes les tendances du marché, outils et technologies liés aux plateformes data. 3. Montée en compétences des équipes : Évaluer le niveau actuel des équipes sur les outils et pratiques de la Data Platform et l’améliorer via des formations, des exercices et la résolution de problématiques réelles. Promouvoir et animer une communauté de pratique afin de construire des parcours de formation d’amélioration, des ateliers internes et des webinaires mettant en valeur les capacités de notre Data Platform. Créer du contenu technique tel que des articles de blog, tutoriels, projets exemples et documentation afin d’aider les développeurs à comprendre et utiliser efficacement notre plateforme. 4. Boucle de feedback : Collecter activement les retours de la communauté des développeurs afin de fournir des analyses et suggestions d’amélioration produit aux équipes d’ingénierie de la plateforme. Fournir des tests pertinents pour les actifs techniques produits par les ingénieurs de la Data Platform et s’assurer qu’ils correspondent aux usages actuels des feature teams. Représenter les data engineers et data scientists au sein de l’entreprise, en veillant à ce que leurs besoins et défis soient compris et pris en compte. Qualifications / Compétences requises Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité. Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout. Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente. Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python). Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement. Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés. Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif. Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français. Atouts supplémentaires : Expérience en développement produit agile et en méthodologie Scrum. Expérience de migration de pipelines data vers le cloud. Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud. Environnement technologique : AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … Data engineering : Airflow, Parquet, Apache Iceberg DevOps : Jenkins, SonarQube, Conda Logiciels : Python, Ruff
Freelance

Mission freelance
Data Engineer Snowflake (H/F)

Publiée le
AWS Cloud
Python
Snowflake

12 mois
550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Data Engineer Snowflake (H/F) pour l'un de ses clients qui opère dans le secteur du prêt-à-porter. Description 🏢 Le Contexte : Pilotage et Évolution du socle Snowflake Vous rejoignez une équipe Data en pleine transformation. Le socle technologique est désormais en production et nous recherchons un Data Engineer Senior pour reprendre le flambeau, sécuriser le "Run" et poursuivre le développement de la plateforme. L'enjeu est double : assurer une passation fluide avec le consultant sortant (fin de mission fin avril) et accompagner l'arrivée du nouveau Responsable Data (prévue le 9 février) dans l'évolution de la stratégie (replatforming d'apps legacy, architecture cloud). 🎯 Vos Missions : Développement, Run et Optimisation En tant que référent technique Snowflake, vos responsabilités couvrent l'ensemble du cycle de vie de la donnée. 1. Développement & Engineering : Développer et optimiser les pipelines de données complexes. Faire évoluer la plateforme Data pour répondre aux nouveaux besoins métiers. Intégrer les fonctionnalités avancées de Snowflake ( Snowflake Cortex et Snowflake Intelligence IA for SQL ) pour automatiser les analyses. 2. Run & Passation (Priorité court terme) : Assurer la reprise en main complète de l'environnement de production. Récupérer l'historique et les bonnes pratiques lors de la phase de passation (binôme avec le consultant actuel). Garantir la stabilité et la disponibilité des flux en production. 3. FinOps & Performance : Piloter l'optimisation des coûts liés à l'utilisation de Snowflake. Mettre en place des stratégies de monitoring de consommation et de tuning de performance.
CDI
Freelance

Offre d'emploi
Data Analyst Dataiku/Tableau/Script Python

Publiée le
Dataiku
Python
Tableau Desktop

3 ans
40k-61k €
400-550 €
Île-de-France, France
Prestations demandées Production de dashboards Tableau • Exploration des données et mise en place de KPI pertinents, en concertation avec le Top management d’A3I et les offering managers • Création de dashboards permettant un suivi de l’adoption, de l’usage et de la performance des offres • Optimisation des dashboards existants (lisibilité, structuration). Préparation de données • Transformation et enrichissement des données via Dataiku. • Exploration et manipulation SQL sous PostgreSQL. • Contribution à la gestion de la qualité des données. Compétences techniques requises • Data Visualisation • Expertise Tableau • Très bonne maîtrise de SQL • Bonne maîtrise de Dataiku (préparation, traitements Python, recettes avancées). Soft Skills • Autonomie. • Rigueur et sens de la qualité. • Capacité d’analyse. • Force de proposition • Excellentes compétences de communication (écrite & orale). • Capacité à travailler en transversal, à fédérer et à challenger les parties prenantes. • Capacité à proposer et maintenir des standards dataviz cohérents entre les différentes offres IA.
Freelance

Mission freelance
Data Scientist / ML Engineer – IA & GenAI / 2 jours sur site LILLE

Publiée le
GenAI
Machine Learning
Python

12 mois
400-520 €
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons pour notre client un Data Scientist / ML Engineer – IA & GenAI Contexte : Dans le cadre d’un programme IA au sein d’un grand groupe international, vous concevez et industrialisez des solutions IA en production (ML + IA générative), avec une forte exigence de software engineering , de fiabilité et de standards MLOps/LLMOps . Missions principales : Concevoir et déployer des fonctionnalités IA (ML & GenAI) en environnement de production. Construire des pipelines de traitement de données (structurées et non structurées). Industrialiser et monitorer les applications/services : latence, coût, taux de réponse, satisfaction utilisateur . Mettre en place les pratiques MLOps/LLMOps : suivi d’expériences, déploiement, observabilité, monitoring. Garantir qualité des données , conformité (RGPD/GDPR) et sécurité des solutions. Localisation : Métropole lilloise (secteur Villeneuve d’Ascq / Lezennes) Présence sur site : souhaitée 2 jours/semaine
Freelance

Mission freelance
Senior Consultant Data & AI / Data Product Factory

Publiée le
Database

3 mois
400-650 €
Paris, France
Télétravail partiel
Hello , Pour le compte de l'un de mes clients dans le secteur du luxe, je suis à la recherche d'un Consultant Data & AI / Data Product Factory Senior. Contexte & Enjeux du poste : Dans un contexte de forte accélération des usages Data & IA, nous accompagnons nos clients (grands comptes et ETI) dans la structuration de leurs capacités Data & AI afin de créer de la valeur métier à travers des Data Products industrialisés. Le Senior Consultant Data & AI interviendra auprès des directions Data, IT et Métiers pour : Définir des cibles Data & AI Concevoir et déployer des Data Factories orientées produit Accompagner la transformation organisationnelle, technologique & méthodologique Missions principales : 1. Conseil & Cadrage stratégique Accompagner les clients dans la définition de leur stratégie Data & AI Identifier les cas d’usage à valeur et les transformer en Data Products Réaliser des diagnostics de maturité Data & AI Définir des roadmaps Data alignées avec les enjeux business 2 Mise en place de Data Factory orientée Data Products Concevoir des modèles de Data Factory (organisation, processus, gouvernance) Mettre en place une approche Data Product (Data Mesh / Product Thinking) Définir les rôles clés : Data Product Owner, Data Engineer, Analytics Engineer, Data Scientist, Platform Team Accompagner la mise en œuvre des rituels agiles, du delivery et de la priorisation 3. Architecture & Solutions Data & AI Cadrer et challenger les architectures Data modernes Cloud Data Platform (AWS, Azure, GCP) Lakehouse, Data Warehouse, Streaming Contribuer au choix et à la mise en place des solutions : ETL / ELT BI & Analytics Machine Learning & IA Garantir les bonnes pratiques : Qualité des données Sécurité Gouvernance MLOps / DataOps 4. Accompagnement du changement & montée en maturité Accompagner les équipes client dans la prise en main des nouveaux modèles Former et coacher les équipes Data et Métiers Contribuer à l’adoption des usages Data & IA Participer à la structuration de centres de compétences Data
Freelance

Mission freelance
Data Product Manager

Publiée le
SQL

6 mois
500-600 €
Rennes, Bretagne
Télétravail partiel
Dans le cadre du renforcement de son Data Lab , un grand groupe souhaite s’appuyer sur un Data Product Manager freelance afin d’accompagner la conception, le cadrage et la mise en œuvre de produits data à forte valeur métier. La mission s’inscrit dans un environnement data transverse et innovant , couvrant des sujets variés tels que la Data Science, la modélisation de données, les tableaux de bord décisionnels, l’IA générative et l’automatisation de processus métier . L’enjeu central de la mission consiste à jouer un rôle pivot entre les métiers et les équipes techniques , en traduisant des besoins business parfois complexes en solutions data concrètes, rapidement testables et industrialisables. Le poste dépasse le simple pilotage de planning : il requiert une compréhension fine des problématiques data et techniques , ainsi qu’une capacité à contribuer opérationnellement aux livrables. Responsabilités Cadrage & spécifications (cœur de mission) Recueillir et analyser les besoins métiers, puis les traduire en spécifications fonctionnelles claires et structurées . Rédiger les spécifications techniques à destination des équipes Data (modélisation, règles de gestion, hypothèses de calcul). S’assurer de la viabilité technique des demandes au regard de la stack data existante. Pilotage & contribution opérationnelle Gérer et prioriser le backlog produit en fonction de la valeur business. Travailler en mode itératif / MVP , avec une logique de test rapide et d’amélioration continue. Réaliser les recettes fonctionnelles et techniques , notamment via des requêtes SQL pour valider les livrables avant restitution aux métiers. Prototyper des dashboards simples afin de matérialiser rapidement les usages. Participer activement à la structuration et à l’amélioration des pratiques du Data Lab .
Freelance
CDI
CDD

Offre d'emploi
Chef de projet IA - Banque

Publiée le
IA

3 ans
Île-de-France, France
Télétravail partiel
Contexte : Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du groupe. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein d'Assets IA, en charge de concevoir et maintenir en production les solutions IA transverses au groupe. Nous recherchons un Chef de projet afin d'orchestrer et superviser le développement de notre "ChatGPT interne" à destination des collaborateurs (population cible : 100 000 collaborateurs). Le consultant aura à intervenir lors des phases de spécification, de réalisation et de recette, en lien avec le Product Owner et le Tech Lead de l'application. Missions principales : • Rédaction des spécifications avec le Tech Lead, les développeurs et l'équipe UX/UI, en lien avec la feuille de route établie avec le Product Owner. • Piloter les rituels agiles en vigueur. • Piloter les développements et s'assurer de la bonne tenue des livraisons. • Réaliser les phases de recette et s'assurer que l'application réponde aux exigences de qualité et valider que le produit qui permettra de répondre aux besoins des cas d'usages métiers. • Rédiger la documentation globale de l'application ainsi que celle de chaque version.
267 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous