Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 43 résultats.
Freelance
CDI

Offre d'emploi
Product Owner Data technico-fonctionnel (PO Snowflake / AWS)

R&S TELECOM
Publiée le
AWS Cloud
Snowflake

1 an
Malakoff, Île-de-France

Mission principale En tant que Product Owner Data Technico-Fonctionnel, vous serez le point de convergence entre les équipes métiers et techniques, et vous piloterez la conception et l’évolution d’architectures data basées sur Snowflake et AWS. Vous assurerez également la gestion d’un sujet spécifique dans le domaine Manufacturing. Missions principales : o Faire le lien entre les métiers et l’équipe technique. o Traduire les besoins fonctionnels en user stories techniques. o Animer et maîtriser les rituels agiles. o Assurer la communication, vulgarisation et restitution auprès du top management (reporting de l’état d’avancement). o Suivi d’un sujet Manufacturing au sein de l’équipe.

Freelance

Mission freelance
Product Owner – Plateforme Data

KEONI CONSULTING
Publiée le
DevOps

18 mois
100-580 €
Paris, France

CONTEXTE Le département Data IA (DaIA) a la charge de mettre à disposition des métiers un socle technologique transverse - La plateforme de Donnée - Une Plateforme de données gouvernées et disponibles c'est-à-dire de qualité, documentée, ayant une traçabilité, dont les accès sont gérés finement, cataloguées et monitorées. Nous recherchons une prestation de Product Owner expérimenté pour superviser le développement et la mise en œuvre de notre plateforme data. Le candidat idéal aura une solide expérience en gestion de projet dans le domaine de la data, avec une compréhension approfondie des technologies cloud et big data. Le candidat sera en étroite collaboration avec les équipes technique et métier du projet et les parties prenantes de l'entreprise. MISSIONS Superviser tous les aspects de vie du produit, y compris la planification, la gouvernance, l'allocation des ressources, le suivi du progrès et la communication avec les parties prenantes. • Définir la feuille de route du projet, le périmètre et le calendrier des livraisons en accord avec les parties prenantes. Veiller au bon déroulement des projets, au respect des délais et des budgets. • Planification du Maintien en Condition Opértionnel de la plateforme et les processus opérationnels pour l’ingéniérie de la fiabilité des sites (SRE). • Collaboration avec l’équipe technique : ingénieurs, développeurs, analystes data et les autres membres de l'équipe pour assurer une exécution fluide du projet et participer aux rituels agiles des équipes. • Définir et suivre les indicateurs de performance clés (KPIs) pour évaluer la charge, capacité des équipes et le suivi des livraisons pour les différentes équipes. • Identifier les risques et mettre en place des plans de contingence pour minimiser l'impact sur le projet. • Identifier et mettre en œuvre des actions d’amélioration continue (processus, outils, pratiques) et mettre en place et gérer une base de connaissances de projets pour capitaliser sur les leçons apprises et favoriser le partage des meilleures pratiques. • Fournir des mises à jour régulières sur l'état du projet aux parties prenantes et à la direction et assurer la mise en place et le déroulement des réunions de suivi. • Fournir une formation et un soutien aux utilisateurs finaux sur les meilleures pratiques en matière de gestion des données. Expertises demandées pour la réalisation de la prestation : 8 ans d'expérience en Product Ownership, dans le domaine de la data ou du digital et des nouvelles technologies • Utilisation de Jira et Confluence : MAITRISE • Utilisation des méthodologies Agiles (SCUM, Kanban, Lean) : MATRISE • Connaissance des process ITIL : CONNAISANCE • Connaissance de l’environnement Cloud GCP (une certification est un plus) : CONNAISANCE • Excellentes compétences en gestion de projet, y compris la planification, l'organisation, la gestion du temps et la résolution de problèmes : CONFIRME • Excellentes compétences en gestion de produits, suivi et roadmap : MAITRISE • Excellentes compétences en communication écrite et verbale en français et en anglais, et savoir discuter dans des situations tendues : MAITRISE • Excellente compétence dans l’animation de communauté d’utilisateurs. : MAITRISE • Autonomie et capacité à gérer plusieurs tâches et équipes métier simultanément : MAITRISE • Une expérience préalable de gestion de projet avec des équipes DevOps (DevOps/ GitOps /FinOps/SecOps) : CONFIRME • Une expérience dans le milieu de media est exigée : CONFIRME

Freelance

Mission freelance
PO Backend & Data (H/F)

Byrongroup
Publiée le
API
JIRA
SQL

6 mois
350-550 €
Neuilly-sur-Seine, Île-de-France

Nous recherchons pour l'un de nos clients un Product Owner dans le secteurs des médias compétent sur des environnements agiles. Vos missions : Définir et prioriser les fonctionnalités produit selon les besoins utilisateurs et les objectifs business. Rédiger, clarifier et maintenir les user stories et critères d’acceptation. Collaborer étroitement avec l’équipe de développement pour assurer la compréhension fonctionnelle et technique. Garantir la cohérence des solutions avec l’écosystème digital global. Piloter la roadmap produit et ajuster les priorités selon les retours utilisateurs et l’évolution du marché.

Freelance

Mission freelance
Product Owner Technique – Data Platform

Atlas Connect
Publiée le
Agile Scrum
AWS Cloud
AWS Glue

12 mois
400-510 €
Paris, France

Mission principale : Nous recherchons un Product Owner (PO) technique pour accompagner le développement et le RUN de notre Data Platform . Vous serez en charge de qualifier les besoins, de participer aux rituels agiles et d’assurer la liaison entre les équipes Build et le RUN de la plateforme, en mode Agile. Responsabilités : Qualifier les besoins techniques et fonctionnels des différentes équipes Data. Participer aux rituels Agile : daily, sprint planning, backlog refinement, PI planning (sur 3 mois). Transformer les besoins identifiés en user stories et tickets Jira exploitables par les squads. Accompagner la construction et l’évolution de la Data Platform (environnements GCP, flux de données, pipelines). Assurer le suivi du RUN de la plateforme et identifier les priorités techniques et fonctionnelles. Travailler en coordination avec 4 à 5 squads organisées en trains pour les PI planning et sprints. Être un interlocuteur technique capable de dialoguer avec les équipes Dev, Data et Ops. Profil recherché : Expérience confirmée en Product Ownership , idéalement dans un contexte technique ou data. Compréhension des environnements cloud (GCP) et des flux de données. Capacité à transformer des besoins complexes en user stories / tickets techniques . Connaissance des méthodes Agile / SAFe et pratique des rituels (sprint planning, PI planning, daily, etc.). Esprit technique : ne pas avoir peur de discuter architecture, flux de données, pipeline, outils de production. Bon relationnel et capacité à collaborer avec plusieurs équipes simultanément. Une connaissance de la data (ETL, ingestion, stockage, pipelines) est un plus. Soft Skills : Organisation et rigueur dans le suivi des priorités. Capacité à synthétiser les besoins et à communiquer clairement. Curiosité technique et ouverture à l’innovation. Force de proposition pour améliorer les process et la plateforme.

Freelance

Mission freelance
Product Owner CRM – Data Client BtoB

SKILLWISE
Publiée le
Backlog management
CRM
Salesforce Commerce Cloud

1 an
230-650 €
Paris, France

Nous recherchons un Product Owner CRM – Data Client BtoB & Prospection pour piloter le référentiel client et les processus de prospection dans Salesforce . Votre rôle sera d’accompagner la transformation digitale de la régie publicitaire, en orchestrant la vision produit et en garantissant la cohérence du système d’information. Vos principales missions : Définir et piloter la roadmap produit Recueillir les besoins métiers et rédiger les spécifications fonctionnelles Prioriser et maintenir le backlog Coordonner les équipes techniques et assurer le delivery Assurer la cohérence avec les autres produits du SI Accompagner le déploiement et l’adoption des nouvelles fonctionnalités

Freelance

Mission freelance
Ingénieur IA générative

Ness Technologies
Publiée le
Pytorch
Tensorflow

6 mois
Yvelines, France

Responsabilités Clés Point de contact data : Interlocuteur privilégié pour les besoins liés aux données dans le cadre des applications IA génératives. Documentation : Rédaction claire et exhaustive des spécifications data (formats, fréquence, exigences de conformité...). Collaboration : Travail en synergie avec les équipes métiers et techniques pour identifier et combler les éventuelles lacunes de données. Validation des données : Vérification de la complétude, de la qualité et de la pertinence des données exploitées. Support technique : Gestion des incidents liés aux données manquantes, erronées ou corrompues. Livrables Attendus Mise en production d’applications basées sur le skill RAG. Documentation complète des besoins et des processus liés aux données. Validation des livrables en conformité avec les critères définis par le Product Owner Data Science/IA.

Freelance

Mission freelance
Data engineering GCP

KEONI CONSULTING
Publiée le
Gitlab

18 mois
100-450 €
Paris, France

CONTEXTE Au sein de l’équipe Silver, la prestation se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et d’un data ingénieur. Notre stack technique est principalement constitué de Python, Spark, SQL, dbt, BigQuery, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. La stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir des pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine

Freelance

Mission freelance
Expert Etudes Salesforce

KEONI CONSULTING
Publiée le
Apex

18 mois
100-500 €
Le Mans, Pays de la Loire

CONTEXTE Mission chez Solution Salesforce MISSIONS - Le patrimoine Salesforce de est géré au sein de la Factory Salesforce qui comprend 4 entités : Intervenant sur les perimètres Community, plan de travail utilisateur, Gestion de personne, vision 360, découverte client, gestion des demandes (service cloud), Gestion commerciale (sales cloud), Analytics, gestion des droits, ... * La Factory Salesforce Chartres, * La Factory Salesforce Paris, Cette entité porte également la structure transverse « Design Authority », Product Owner, Data Management - La Factory Salesforce Niort, Cette entité porte également l’équipe transverse en charge du Maintien en Condition Opérationnelle (MCO) - La Factory Salesforce , Cette entité porte également la structure transverse « System Team » MISSIONS : Concepteur/développeur Salesforce - et SCRUM (double rôle) pour l'une de nos 3 équipes Agile Avoir minimum de 5 ans d'expérience sur Salesforce. Connaissance technique : - APEX - LWC - GIT/Copado Expérience aguerrit dans l'agilité à l'échelle et grand compte (domaine fonctionnel

Freelance

Mission freelance
Product Owner - Cybersécurité (H/F)

CELAD
Publiée le
Azure Data Factory
Cybersécurité
Microsoft Power BI

12 mois
600-700 €
La Défense, Île-de-France

Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un Product Owner Data / BI (H/F) pour intervenir sur un projet Datalake Cybersécurité chez l'un de nos clients. Voici un aperçu détaillé de vos missions 🎯 : - Rédiger le cahier des charges et définir les plannings de la squad. - Définir et analyser les KPIs fonctionnels et techniques avec les équipes métiers. - Analyser les sources de données nécessaires à la construction des KPIs et optimiser leur calcul. - Réaliser la modélisation des données dans PowerBI et Snowflake . - Définir les règles de gestion des accès, de data gouvernance et d’historisation des données. - Assurer la qualité des performances , le suivi des ordonnancements et le monitoring/alerting des sources et de la qualité des données. - Gérer le backlog dans JIRA et suivre les cérémonies Agile . - Réaliser les tests unitaires sur Snowflake et les tests end-to-end sur PowerBI . - Rédiger et suivre la documentation fonctionnelle et technique . - Assurer la communication, la formation et le support auprès des utilisateurs. - Organiser et animer les comités de pilotage et le suivi du run.

Freelance

Mission freelance
Développeur / Scrum Master Salesforce

CAT-AMANIA
Publiée le
Apex
Git
Salesforce Sales Cloud

1 an
400-580 €
Le Mans, Pays de la Loire

Mission chez Solution Salesforce Contexte : - Le patrimoine Salesforce est géré au sein de la Factory Salesforce qui comprend 4 entités : Intervenant sur les perimètres Community, plan de travail utilisateur, Gestion de personne, vision 360, découverte client, gestion des demandes (service cloud), Gestion commerciale (sales cloud), Analytics, gestion des droits, ... * La Factory Salesforce Chartres, * La Factory Salesforce Paris, Cette entité porte également la structure transverse « Design Authority », Product Owner, Data Management - La Factory Salesforce Niort, Cette entité porte également l’équipe transverse en charge du Maintien en Condition Opérationnelle (MCO) - La Factory Salesforce Le Mans, Cette entité porte également la structure transverse « System Team » * La Factory Salesforce participe activement au programme ECLA qui vise à mettre en œuvre le CRM sur le périmètre assurance pour l’ensemble des marques du Groupe. Le programme ECLA est mené selon le framework SAFe et la Factory Salesforce fournit au programme des équipes Agiles, des équipes transverses (Design Autority, System Team) ainsi que l’appui organisationnel/managérial associé.

Freelance

Mission freelance
Scrum Master - Salesforce Platform Developer

Cherry Pick
Publiée le
Agile Scrum
Apex
Git

6 mois
550-600 €
Paris, France

Concepteur et Développeur Salesforce – Scrum Master (Double rôle) Contexte : Notre client en assurance gère son patrimoine Salesforce à travers 4 entités Factory : Chartres Paris – porte la structure transverse Design Authority , Product Owner, Data Management Niort – porte l’équipe transverse Maintien en Condition Opérationnelle (MCO) Le Mans – porte la structure transverse System Team La Factory Salesforce participe au programme ECLA , visant à déployer le CRM sur toutes les marques du Groupe. Le programme est mené selon le framework SAFe , avec des équipes Agiles et transverses (Design Authority, System Team) intervenant sur les ORG1 et ORG2 . Missions principales : Concevoir et développer des solutions Salesforce sur Sales Cloud, Service Cloud, Community, Analytics, etc. Participer aux cérémonies Scrum et assurer le rôle de développeur et de Scrum team member. Collaborer avec les équipes transverses (Design Authority, System Team). Contribuer à l’évolution et au Maintien en Condition Opérationnelle des ORG Salesforce. Réaliser les développements et configurations conformément aux user stories et exigences métier. Profil recherché : Compétences techniques : Maîtrise APEX Maîtrise LWC (Lightning Web Components) Maîtrise Git / Copado Connaissance des intégrations, Flows, Workflows, OmniStudio (souhaitable) Expérience professionnelle : Minimum 5 ans d’expérience Salesforce Expérience dans le domaine assurance et grand compte Expérience en agilité à l’échelle (SAFe) et travail dans des équipes Agiles Compétences fonctionnelles : Analyse des besoins métiers et rédaction des spécifications techniques Capacité à proposer des solutions évolutives et performantes Bonnes aptitudes à la communication et au travail en équipe Certifications souhaitées : Salesforce Certified Platform Developer Salesforce Certified App Builder Salesforce Certified Administrator Salesforce Certified OmniStudio Developer (optionnel) Langues : Français courant Anglais opérationnel

CDI

Offre d'emploi
Manager Data / Lead Data

VISIAN
Publiée le
Azure
Azure Data Factory
Python

60k-80k €
Paris, France

Descriptif du poste Une filiale d'un grand groupe recherche une personne pour prendre en charge la responsabilité des activités Data & Intégration au sein de son département IT. Objectif de la mission La mission a pour objectif de couvrir les activités data existantes, en assurant la continuité des activités tout en identifiant les axes d'amélioration potentiels. Missions de Responsabilité des Activités Data Le candidat présenté par le prestataire sera chargé de : Accompagnement Technique "Tech Lead" : Fournir un support technique à l'équipe Data et Intégration, composée d'une dizaine de collaborateurs data engineers et product owners data. Le profil devra encadrer, orienter et développer les compétences techniques de l'équipe. Choix Technologiques et Architecture Transverse : Conseiller sur les choix technologiques et architecturaux pertinents (stockage, exposition de la data, …), et participer activement à la mise en place d'une plateforme data robuste et scalable permettant l'industrialisation des projets d'IA. Participation aux échanges techniques : Participation active aux échanges et choix techniques et organisationnels sur l'industrialisation des produits data, conjointement avec les équipes Data & Analytics. Positionnement Vis-à-Vis des Partenaires : Collaborer étroitement avec les partenaires et se positionner sur les orientations techniques et architecturales pertinentes. Arbitrer sur les synergies éventuelles à envisager. Choix des Fournisseurs : Contribuer au processus de sélection des fournisseurs en veillant à ce que les choix soient alignés avec les objectifs stratégiques et opérationnels. Pilotage et Conception des Produits Structurants : Participer au pilotage et à la conception de produits structurants et la construction d'un middleware. Cela inclut la priorisation et le dimensionnement des activités.

Freelance

Mission freelance
DATA ENGINEER Cloud GCP

KEONI CONSULTING
Publiée le
BigQuery

18 mois
110-600 €
Paris, France

CONTEXTE : En pleine expansion, nous souhaitons renforcer l’équipe Data par de nouvelles expertises en data engineering et aider ainsi à la mise en place de solutions Big Data dans un environnement Cloud GCP. Cette équipe est composée d’un product owner et de data engineers. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données en batch, Apache Beam pour les traitements en streaming et Airflow pour l’orchestration. La stack inclut aussi les services BigQuery, Dataproc et PubSub de la Google Cloud Platform et Terraform pour la gestion de l’infrastructure. MISSIONS : Au sein de l’équipe Data et au cœur de la plateforme data, la prestation se déroulera en collaboration avec les experts métier de la donnée, les product owners, les data scientists ou encore les data managers. Cette plateforme repose sur une architecture Lakehouse construite sur la Google Cloud Plateform. En travaillant avec les autres Data Engineers de l’équipe, la prestation consistera à participer à : • La collecte et l’ingestion de différentes sources de données non homogènes • La mise en place de pipelines de traitement de données • Le développement des modèles de données • L’extraction et l’exposition des données du Lakehouse vers d’autres services • L’industrialisation des projets sur la GCP • La mise en place et la maintenance des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • La participation aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • La participation active aux différentes phases de grooming, cadrage et planification des tâches avec l’équipe

Freelance

Mission freelance
Data engineer GCP SPARK PYTHON

KEONI CONSULTING
Publiée le
Python

18 mois
100-600 €
Paris, France

CONTEXTE Contexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Au sein de l’équipe Silver, la mission se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et d’un data ingénieur. Notre stack technique est principalement constitué de Python, Spark, SQL, dbt, BigQuery, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. Le stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : 1. Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir des pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données • Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant dbt • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques

Freelance

Mission freelance
DBA Snowflake

SQLI
Publiée le
Python

6 mois
500-600 €
Paris, France

Bonjour, Pour l'un de mes grands comptes parisiens, je suis à la recherche urgente d'un DBA Snowflake. L’équipe Architecture & Data Engineering de la Direction DATECH est chargée de la maintenance et de l’évolution de la Data Platform à disposition des équipes Collectes, Analytics, Data, Science & IA, CRM, Pub etc .. La mission : Au quotidien, vous menez les travaux de définition et de revue d’architecture de la Data Warehouse/Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions sont : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Vous intervenez sur la conception de l’ensemble des travaux relatifs aux données du Groupe. Vous accompagnez également nos équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien notre démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur & d’expert Snowflake entre les équipes Data (AdTech, Product Owners, Data Analysts et opérationnels) du Groupe.

Freelance

Mission freelance
Project Management GenAI (F/H) - 75

Mindquest
Publiée le
AI
Large Language Model (LLM)
Prince2

3 mois
Paris, France

Contexte Nous sommes à la recherche d'un chef de projet confirmé avec une expérience significative pour notre client dans des environnements IA, data science ou tech-driven. Vous serez en charge de coordonner des projets complexes intégrant des technologies de pointe (GenAI, LLMs, RAG, Machine Learning) et impliquant des équipes pluridisciplinaires (Product Owners, Data Scientists, AI Engineers, pays). Mission - Définir et piloter les roadmaps projets en lien avec la stratégie IA. - Assurer la coordination multi-équipes et multi-pays (tech, business, data, PO). - Garantir le suivi opérationnel : livrables, planning, ressources, budget et risques. - Mettre en place et animer la gouvernance et le reporting auprès des sponsors. - Accompagner le déploiement et l’adoption des solutions GenAI à l’échelle. - Contribuer à la vulgarisation et la pédagogie auprès des parties prenantes.

43 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous