Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 699 résultats.
Freelance
CDI
CDD

Offre d'emploi
Consultant IAM / Zero Trust – Audit & Rationalisation Okta

RIDCHA DATA
Publiée le
IAM
MFA
okta

1 an
Île-de-France, France
🎯 Contexte Dans le cadre d’une stratégie Zero Trust à grande échelle (BYOD / BYOL et remplacement du VPN), la mission consiste à faire évoluer et rationaliser l’architecture d’authentification ainsi que les processus de gestion des identités. La prestation est structurée en 2 lots : Lot 1 : Études & rationalisation architecture IAM Lot 2 (optionnel) : Continuité de service & bascule IDP 🛠️ Missions principales🔹 Lot 1 – Études & optimisation Rationalisation de l’architecture d’authentification (Okta / Zscaler ZIA & ZPA) Étude du provisioning utilisateurs (SCIM ou autre mécanisme) Simplification des règles d’éligibilité aux solutions d’accès sécurisé Industrialisation et déploiement de FastPass sur postes Windows & MacOS Intégration d’applications filiales dans l’écosystème Okta Participation aux rituels Agile 🔹 Lot 2 – Continuité & sécurisation Définition d’une procédure de bascule vers un autre IDP en cas d’indisponibilité prolongée Documentation des scénarios de continuité d’activité 📦 Livrables attendus Mise à jour du document de conception de la politique Zero Trust Plan de communication pour le déploiement global d’Okta Verify Documentation des changements de configuration Okta & écosystème Procédure de bascule IDP (PRA / continuité de service) Comptes rendus d’avancement réguliers ⚙️ Compétences techniques Impératif : Expertise IAM (Identity & Access Management) MFA & solutions d’authentification Okta (architecture, provisioning, intégration applicative) Protocoles SAML, OAuth2, OpenID Connect Important : Zscaler (ZIA / ZPA) SCIM Gouvernance des identités (IGA) Environnements Zero Trust
Freelance

Mission freelance
Data Engineer

Freelance.com
Publiée le
Amazon Redshift
Apache NiFi
API

1 an
400-480 €
Saint-Denis, Île-de-France
Dans le cadre du développement de son système d’information décisionnel, un grand groupe français renforce sa plateforme data dédiée au pilotage des activités immobilières. La mission s’inscrit dans l’évolution d’un hub de données centralisé , permettant de consolider, partager et valoriser les données métiers pour des usages analytiques avancés : pilotage opérationnel, reporting, data visualisation et ouverture vers des cas d’usage d’intelligence artificielle. Cette plateforme data, déployée depuis 2022, repose sur une architecture Lakehouse moderne dans le cloud AWS , et s’appuie sur des technologies telles que Databricks, NiFi, Redshift et Power BI . L’équipe data actuelle développe et maintient plusieurs applications analytiques visant à améliorer l’exploitation et la qualité des données au service des métiers. En tant qu’ Expert Data Engineer , vous interviendrez sur la conception, l’évolution et l’exploitation du hub de données. Vos principales responsabilités seront : Engineering & Data Platform Assurer la maintenance et l’optimisation des chaînes de traitement existantes (Python, SQL, Databricks, Power BI) Développer de nouveaux pipelines de données pour intégrer de nouvelles sources dans le Data Lake (Batch, API) Participer aux travaux de modélisation et d’urbanisation du hub de données Identifier, collecter, transformer et stocker les données nécessaires à l’alimentation des modèles analytiques Implémenter des algorithmes et traitements avancés exploitant les données du Data Lake Analyse & accompagnement métier Participer aux ateliers avec les métiers afin de formaliser les besoins Rédiger les expressions de besoins et spécifications fonctionnelles Définir les règles de calcul et d’agrégation des indicateurs Proposer des solutions adaptées aux enjeux d’analyse et de pilotage Descriptif de la mission Data visualisation & reporting Concevoir et développer des tableaux de bord et rapports Power BI Automatiser les processus de reporting Produire des indicateurs et restitutions analytiques pour les utilisateurs métiers Documentation & gouvernance Rédiger les spécifications techniques et fonctionnelles Documenter les règles d’alimentation du datawarehouse et les modèles de données Contribuer à la documentation des règles de sécurité et de gouvernance des données Participer aux plans de tests, recettes et supports utilisateurs
Freelance

Mission freelance
Responsable / Chef de Projet Gouvernance Data

ALLEGIS GROUP
Publiée le
Data governance

3 ans
400-570 €
Niort, Nouvelle-Aquitaine
Responsabilités 1. Gouvernance & Stratégie Construire, formaliser et déployer le cadre de gouvernance Data : normes, qualité, sécurité, rôles, catalogues, bonnes pratiques. Définir et animer les trajectoires Data (organisationnelles, techniques, qualité). Contribuer à la structuration des besoins Data pour l’ensemble des projets du périmètre (≈ 16 collaborateurs / 30 projets). Assurer la cohérence globale des initiatives Data en lien avec les équipes métiers et techniques. 2. Pilotage Data Suivre l’avancement des actions Data, dont les jalons clés (ex. J+15). Instaurer un pilotage robuste : reporting régulier, gestion des risques, consolidation des indicateurs. Participer au développement de la culture Data au sein de l’organisation. 3. Gestion de Projet Recueillir, structurer et prioriser les demandes Data . Coordonner les parties prenantes internes et externes (prestataires, métiers, IT). Garantir la qualité , la cohérence et la complétude des livrables Data (modèles, règles, dictionnaires, contrôles…). 4. Management Fonctionnel Animer la communauté Data et participer à la structuration des rôles (Data Owners, Data Stewards…). Superviser le périmètre opérationnel (~16 personnes). Intervenir à la fois sur le stratégique (vision, trajectoires) et l’ opérationnel (suivi, arbitrages, priorisation).
Freelance

Mission freelance
Business Analysts expérimentés sur Workday

Codezys
Publiée le
Business Analysis
Data management
Formation

12 mois
Paris, France
Contexte du projet : Dans le cadre du déploiement international de Workday, SAUR met en œuvre un programme de transformation de son SIRH couvrant environ 20 pays et 12 000 collaborateurs. Ce projet vise à harmoniser, sécuriser et optimiser les processus RH à l’échelle mondiale. Besoins en renfort : Renforcer l’équipe centrale SIRH en intégrant deux Business Analysts expérimentés sur Workday, capables d’intervenir sur les aspects fonctionnels, la configuration et la coordination avec les équipes RH locales. Assurer une assistance opérationnelle auprès de plusieurs filiales pour accompagner l’appropriation de Workday, garantir la qualité des données et des processus RH, et faire le lien entre les besoins métiers locaux et l’équipe centrale. Contexte organisationnel : L’équipe centrale SIRH se compose actuellement de trois personnes intervenant partiellement sur le sujet, ainsi que d’un lead change dédié à la communication. L’ajout de ces consultants est nécessaire pour accompagner efficacement le déploiement dans un contexte sensible et international. Objectifs et livrables : Coordination avec les équipes RH locales : identifier les rôles et responsabilités, comprendre les processus spécifiques à chaque pays, accompagner l’adoption de Workday, et soutenir la gestion des tickets pour assurer un support structuré et harmonisé. Support fonctionnel et optimisation : analyser les problématiques rencontrées, proposer des améliorations métier, et contribuer à la configuration des modules Workday, notamment sur le Core RH et les instances adaptées aux besoins locaux. Gestion de la qualité des données : vérifier, améliorer la cohérence et la fiabilité des informations RH intégrées dans Workday. Formation et accompagnement : former les équipes locales, identifier les points de blocage, et proposer des plans d’action pour faciliter l’utilisation de la plateforme, tout en diffusant efficacement les communications liées au programme.
Freelance
CDI

Offre d'emploi
Data Scientist Generative IA (4jrs TT) sur 92

EterniTech
Publiée le
Data science
IA Générative
Pytorch

3 mois
Hauts-de-Seine, France
Je recherche pour un de mes clients un Data Scientist Generative IA avec 4 jours TT sur 92 VOTRE MISSION** * Concevoir et industrialiser des solutions d’IA Générative (LLMs, Agents, RAG) répondant aux besoins des AI Catalysts, priorisés par le PO. * Intégrer les composants GenAI à l’écosystème existant (GenAI Core, OneAPI, Azure AI Foundry), tout en respectant les normes de sécurité et de coûts. * Définir et implémenter les architectures techniques : choix de modèles, orchestration d’agents, conception RAG, gestion des sessions. * Développer et maintenir le code (principalement Python) et les briques réutilisables (librairies de prompts, agents). * Industrialiser le déploiement : conteneurisation (Docker), Kubernetes, CI/CD, Infrastructure as Code (Terraform), et monitoring. * Mettre en œuvre des pratiques MLOps : suivi des expériences, versioning de modèles, tests de régression, validations en pré-prod. * Assurer la qualité et l’observabilité : métriques de performance, tests adversariaux, suivi des dégradations en production. * Collaborer avec le PO, le Software Engineer, les AI Catalysts et la DSI pour garantir la sécurité et l’adoption des solutions. * Contribuer à la documentation, aux templates et à la formation des équipes internes. *VOTRE PROFIL * Bac +3 à Bac +5 en informatique, data science ou équivalent. * 3 à 5 ans d’expérience en développement d’applications utilisant l’IA, avec un accent sur l’IA Générative (Agents, RAG, LLMs). * Maîtrise de Python et des bibliothèques ML/IA (PyTorch, Transformers). * Connaissances des frameworks GenAI : LangChain, LangGraph, LangFuse, et des moteurs de recherche sémantique (Qdrant, Milvus). * Compétences en architecture cloud Azure (AI Foundry, AKS, WebApp) et en conteneurisation/orchestration (Docker, Kubernetes). * Familiarité avec CI/CD et Infrastructure as Code (Terraform). * Sensibilité aux enjeux de cybersécurité et de conformité. * Rigueur dans l’ingénierie logicielle : tests, documentation et automatisation des pipelines. * Capacité à travailler en équipe et à vulgariser les concepts techniques. * Anglais professionnel (lu/écrit) ; français courant indispensable. Définition du profil DATA SCIENTIST: - En charge du développement d'algorithmes (Machine Learning et Intelligence Artificielle) pour créer de la valeur métier à partir de données (structurées, non structurées, vidéos, images, etc.). - Doit comprendre les demandes de l'entreprise et les challenger pour fournir la meilleure réponse possible. - Apporte un support à la décision sur d'éventuelles innovations, l'amélioration des performances et décisions relatives au service client. - Industrialise les projets de Data Science avec les Data Engineers. - Maintient et documente les algorithmes industrialisés (selon les rôles et les responsabilités définis par le projet).
CDI
Freelance

Offre d'emploi
Data Engineer Big Data

Signe +
Publiée le

24 mois
45k-50k €
322-500 €
Saint-Denis, Île-de-France
Contexte: Nous recherchons un Data Engineer Expérimenté/Senior spécialisé en environnement Big Data OnPremise pour une mission dans le cadre de l'exploitation, du maintien en conditions opérationnelles et des évolutions du Data Lake OnPremise (DataStore). Le collaborateur s'intégrera dans une équipe de 14 développeurs et contribuera également aux travaux liés à la migration progressive du Data Lake vers GCP. Missions : Exploitation et maintenance des traitements Big Data : supervision, intégration des données, contrôle qualité. Développements et évolutions sur les pipelines existants (Spark, Kafka, NIFI). Optimisation des performances et maintien des services DataStore. Gestion des incidents niveau 3 : diagnostic, correction, suivi JIRA/ITZMI. Participation aux évolutions applicatives, aux travaux transverses et aux actions préparatoires à la migration Cloud. Profil : Data Engineer Tech Lead Compétences techniques requises : Spark Kafka NIFI HDFS HBase Airflow Python SQL Technologies complémentaires : Java Scala BigQuery
Freelance
CDI

Offre d'emploi
Consultant Fonctionnel – Reprise de Données / SQL H/F

HAYS France
Publiée le
Data analysis
Data management
Data quality

1 an
40k-52k €
330-440 €
Bouches-du-Rhône, France
Nous recherchons un consultant fonctionnel spécialisé dans la reprise de données dans le cadre de projets ERP. Vous interviendrez sur l’analyse, l’extraction, la transformation et l’intégration des données de gestion et données comptables. Missions Analyser les besoins fonctionnels liés à la reprise de données. Préparer, traiter et intégrer les données dans un ERP : Commandes Factures Écritures ou données comptables Maîtriser les requêtes et manipulations SQL pour extraction, transformation et contrôle qualité. Assurer la fiabilité, la cohérence et la conformité des données reprises. Collaborer avec les équipes métier, fonctionnelles et techniques. Contribuer à la documentation et aux étapes de validation.
Freelance

Mission freelance
Consultant Data & Reporting - Cash Management

NOVAMINDS
Publiée le
Business Analyst
Data management

4 mois
550-650 €
Paris, France
Objectif de la mission · Collecter, produire et valider les données requises afin de réaliser l’ensemble du reporting interne. · Assurer une gestion centralisée de la disponibilité et de la fiabilité des données, dans les délais, pour permettre la livraison du reporting. Prestations demandées · Coordonner avec différentes équipes de reporting et autres parties prenantes (IT, métiers) afin d’intégrer les exigences réglementaires dans le reporting. · Revoir les processus de reporting existants, identifier des opportunités d’amélioration de l’organisation opérationnelle et mettre en œuvre les changements. · Partager et former les équipes de production de reporting aux nouvelles solutions de reporting conçues. · Revoir et piloter le reporting des KPI, garantir les niveaux de service/qualité, et reporter aux parties prenantes via différents comités. · Interagir avec différentes équipes.
Freelance

Mission freelance
Directeur de Programme Data

CONCRETIO SERVICES
Publiée le
Data management
Jira Align

12 mois
400-600 €
Pays de la Loire, France
Dans le cadre d'une stratégie de digitalisation ambitieuse, notre client — un grand groupe financier — lance la Saison 2 d'un portefeuille de 15 solutions nativement digitales à déployer en 18 mois. L'objectif : mettre à disposition des clients des parcours de souscription et de gestion de produits 100% digitaux, à grande échelle. Un programme transverse qui mobilise 24 tribus, 10 Pôles Utilisateurs et plus de 12 entités du groupe. Une machine en mouvement, forte des succès de la Saison 1, qui cherche maintenant à accélérer. Votre mission Au cœur du dispositif de pilotage, vous êtes le garant de la delivery : Sécuriser le lancement de la Saison 2 : cadrage des Business Epics, structuration dans les outils (JIRA Align), embarquement des parties prenantes Piloter la fabrication en lien direct avec les Leaders de Tribu : planification, suivi des engagements délais/budget/qualité, arbitrages Animer la gouvernance : comités de pilotage, reporting Direction Générale, coordination faîtière Groupe Gérer les risques : identification, qualification, plans de mitigation, escalade si nécessaire Contribuer à la capitalisation : post-mortem, bonnes pratiques, recommandations pour les programmes futurs
Freelance

Mission freelance
Lead Data Scientist

Signe +
Publiée le
Big Data

12 mois
580-810 €
Lyon, Auvergne-Rhône-Alpes
Mission principale Leader technique et fonctionnel chargé de concevoir, déployer et industrialiser des solutions AI/ML utilisant des algorithmes avancés Identifier les opportunités d’amélioration data et piloter leur mise en œuvre dans des environnements cross-fonctionnels Encadrer et faire monter en compétences une équipe de Data Scientists et Data Analysts Garantir le cycle de vie complet des modèles (développement, déploiement, monitoring, amélioration continue) Collaborer étroitement avec les équipes métiers pour transformer les besoins business en solutions data Expérience requise 8 à 10+ ans d’expérience en Data Science Expérience confirmée en développement de code déployable et mise en production de modèles Expérience en développement logiciel production-ready et en environnement agile Expérience de management d’équipe Data Expérience en environnement healthcare ou manufacturing appréciée Compétences techniques Maîtrise des langages Data Science : Python, R, C++ Connaissance des bases de données SQL / NoSQL / Graph / Time series Expertise en AI/ML : Supervised & Unsupervised Learning Deep Learning LLMs Reinforcement Learning Federated Learning Time series forecasting Bayesian statistics et optimisation Expérience cloud et HPC : AWS, Azure, Spark CI/CD, orchestration et industrialisation des modèles Data visualization & storytelling (Tableau, Power BI, Streamlit) Expérience APIs enterprise et big data mining Connaissance des réglementations Data & AI Compétences comportementales Leadership et management d’équipe Communication écrite et orale excellente Capacité à aligner plusieurs équipes et parties prenantes Esprit analytique et résolution de problèmes Autonomie, proactivité et esprit d’équipe Formation Master ou PhD en mathématiques, informatique, ingénierie, statistiques ou domaine quantitatif équivalent
Freelance

Mission freelance
Data Manager / Data Steward

Codezys
Publiée le
Data management
Data quality
Lean

12 mois
Rennes, Bretagne
Nous recherchons un profil capable de renforcer notre équipe de Data Management afin de soutenir la réalisation de nos engagements concernant nos offres de services dans ce domaine. Cette personne accompagnera également nos parties prenantes métier dans leurs projets liés à la gestion des données. ENJEUX La mission vise à garantir le succès des initiatives métier portant sur le catalogage des données et leur nettoyage, en particulier lors de projets de transformation majeurs. OBJECTIFS Contribuer à l’enrichissement et au renforcement de notre offre de services en Data Management (méthodologies, outils, formations, accompagnement au changement…) Faciliter la collaboration entre les équipes (Data, IT, architecture, métier) autour de la gestion des données (catalogage, qualité, documentation, sécurité, modélisation…) Professionnaliser et accompagner la montée en compétences des Data Owners, Data Stewards et Data Custodians concernant leurs rôles liés à la qualité des données Participer à l’amélioration de la culture Data au sein de l’organisation Le périmètre technique englobe : Data Gouvernance Data Management Data Quality DAMAS Méthodologies Lean et Agile Outil Blueway MyData Catalogue Tout le système d’information, incluant SIO et legacy Intelligence artificielle Objectifs et livrables Les prestations attendues, non exhaustives, comprennent : Cataloguage de données : réalisation de projets de documentation métier et technique, intégration dans l’outil My Data Catalog Data Quality Management : audits de qualité, propositions de plans de remédiation Accompagnement au changement, formation et sensibilisation Data : formation à l’utilisation de My Data Catalog, accompagnement individuel ou collectif (1 à 1, ateliers) Communication : création et diffusion de newsletters, publications sur l’intranet Participation à des réunions de communauté : Data Owners, Data Stewards, Data Custodians Les livrables attendus comprennent : Les catalogues de données dans l’outil My Data Catalog Les résultats des audits de qualité des données Supports de formation sur les outils et méthodologies de Data Management Newsletter ou autres publications destinées à la communication interne
CDI

Offre d'emploi
Data Engineer

CGI
Publiée le
ETL (Extract-transform-load)
SGBD
SQL

35k-45k €
Nantes, Pays de la Loire
Si vous souhaitez intégrer nos équipes à Nantes et accompagner les plus grands acteurs de secteurs variés, cette annonce est susceptible de vous intéresser. Rejoindre notre communauté Data à Nantes, c’est intégrer un collectif d’experts passionnés, partager les meilleures pratiques d’ingénierie, monter en compétences sur des environnements techniques variés et contribuer à des projets à fort impact pour nos clients grands comptes. Vous intervenez chez nos clients ou au sein de nos équipes projets pour concevoir, construire et faire évoluer des plateformes de données performantes et industrialisées. Acteur clé de la chaîne de valeur Data, vous participez à la mise en œuvre d’architectures fiables, scalables et orientées performance, dans des contextes souvent menés en méthodologie agile. Fonctions et responsabilités : Sous la responsabilité d'un Chef de Projet / Scrum Master, vos principales missions sont : - Concevoir, développer et maintenir des flux d’intégration de données (ETL/ELT) - Analyser les développements réalisés et accompagner les équipes techniques afin d’optimiser la performance, la qualité et la pertinence des solutions mises en œuvre - Industrialiser les pipelines de données (déploiement, supervision, gestion des erreurs) - Garantir la qualité, la cohérence et la performance des flux en production - Collaborer avec les équipes architecture, bases de données et infrastructure - Contribuer aux bonnes pratiques Data Engineering (versioning, CI/CD, performance tuning) - Assurer la mise en place d'actions d'amélioration continue sur l'ensemble des services offerts aux clients En nous rejoignant, vous bénéficiez notamment des avantages suivants : - Offre complète de formations : techniques, métiers, développement personnel - Qualité de vie au travail : jusqu’à 3 jours de télétravail par semaine, 27 jours de congés payés, RTT, congés ancienneté et enfant malade, programme santé & bien-être - Avantages sociaux : régime d’achats d’actions, participation, PEE, Compte Epargne Temps Et bien d'autres encore !
CDI

Offre d'emploi
Data Engineer

Recrut Info
Publiée le
AWS Cloud
Data Lake
Python

45k-55k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au Head of Data, vous participerez aux développements de la plateforme data. Dans un contexte cloud-first (AWS), vos principales missions seront les suivantes : - Concevoir, déployer et maintenir des systèmes de données résilients, sécurisés et scalables : bases de données, data warehouses, data lakes, traitements batch et temps réel, flux d’ingestion et transformations de données. - Développer, industrialiser et superviser des pipelines de données de type ETL/ELT. - Garantir la structuration, la qualité et la bonne gouvernance des données au sein des différents environnements de stockage. - Mettre en œuvre des solutions de Business Intelligence et de data visualisation telles que Power BI, afin de faciliter l’analyse et la prise de décision. - Répondre aux besoins de mise à disposition des données, de mise en production des modèles et d’optimisation des performances. - Concevoir et déployer des solutions d’exposition de la donnée via des API internes et externes. - Contribuer à la mise en œuvre de projets IA sur différents piliers métiers et business. - Sécuriser les architectures techniques et les échanges entre services en appliquant les meilleures pratiques de sécurité : IAM, gestion des habilitations, principe du least privilege, etc. Environnement technique : Python (requis), AWS (souhaité), Make (souhaité), RedShift (souhaité), PostgreSQL (souhaité), GitHub Actions (souhaité), SQL (requis), NOSQL (requis), Amazon S3 (souhaité), AWS Lambda (souhaité), Amazon ECS (souhaité), R (souhaité)
Freelance
CDI

Offre d'emploi
Data Analyst

Atlanse
Publiée le
Dremio
ETL (Extract-transform-load)
SQL

3 ans
45k-55k €
400-500 €
Issy-les-Moulineaux, Île-de-France
Dans le cadre d’un projet de simplification et d’optimisation des données, vous intervenez sur l’analyse et l’amélioration des flux de données transactionnelles et géographiques. Vous analysez l’usage des données, identifiez les incohérences et contribuez à la mise en place d’un cadre de gouvernance des données. Votre rôle Analyse des flux et structures de données Analyser la structure des flux de données transactionnelles, les données échangées et leurs usages Identifier les incohérences, redondances ou données inutilisées Proposer des simplifications et optimisations des flux de données Amélioration de la qualité et optimisation des données Réaliser des analyses détaillées de jeux de données pour détecter anomalies, incohérences et problèmes structurels Mettre en place des indicateurs et contrôles de qualité des données pour suivre et piloter les améliorations Contribuer aux actions de nettoyage et de fiabilisation des modèles et structures de données Documentation et structuration des référentiels de données Documenter les flux transactionnels : modèles de données, règles métier, cas d’usage et guidelines Mettre à jour et clarifier le Data Catalog, les modèles de données et les spécifications de flux Définir et formaliser les règles d’utilisation et d’alimentation des données Gouvernance et collaboration Partager les résultats d’analyse avec les parties prenantes Accompagner les équipes dans la définition de plans d’action pour corriger les anomalies détectées Contribuer à la mise en place du cadre de gouvernance des données : rôles, responsabilités, règles de gestion et suivi de la qualité des données Participer aux routines de gouvernance et à l’analyse des impacts IT liés aux évolutions des données
CDI
Freelance

Offre d'emploi
Architecte Big Data

KLETA
Publiée le
Apache Kafka
Apache Spark
ELK

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Big Data pour définir et piloter l’évolution des plateformes de données à grande échelle. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures distribuées en intégrant des technologies telles que Hadoop, Spark, Kafka, Iceberg/Delta Lake ou équivalents, ainsi que des principes modernes de lakehouse et de data mesh lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance et de sécurité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques Big Data et data engineering.
Freelance

Mission freelance
Chef de projet Innovation IA

Inventiv IT
Publiée le
Data science
Data visualisation
IA

6 mois
450-550 €
Île-de-France, France
Missions du Chef de projet Innovation IA : - Intervention sur l’ensemble du cycle de vie des projets : collecte et étude du besoin, cadrage, ateliers, bêta-tests, prototypage, etc. - Pilotage des projets : suivi de l’avancement des projets, des tâches à réaliser, coordination des équipes internes et externes. - Réalisation de tests IA : PoC et tests de solutions internes et externes d'IA pour répondre aux impératifs du développement de l’IA du quotidien et des supports - Animation des réunions projets : gestion et animation des réunions de suivi projets, favorisant la coordination et la communication entre les équipes et les décideurs. - Interface métier : être en mesure de coordonner l’intégralité des actions à mener pour assurer la réussite du projet, dans la mesure où elles concernent plusieurs directions ou département - Suivi des indicateurs de performance et amélioration continue : suivi et production de bilans récapitulatifs sur les statistiques et l'adoption des solutions, analyse des KPIs fonctionnels et techniques, fournitures d’éléments et d’information au responsable pour arbitrage des mesures à mettre en œuvre le cas échéant - Intégration des actions nécessaires de formation, d’acculturation et de communication dans le dispositif FAC de CorT-ex. Ex : production de tutos vidéo ou écrits pour la prise en main d’outils, de fonctionnalités ou de technologies, proposition de plan d’acculturation et de communication pour répondre aux enjeux des phases de tests et de pré-déploiement - Rencontres & partenariats startups : à la demande du responsable, prise en charge et organisation du dialogue qui pourrait s’avérait pertinent / productif avec des partenaires publics ou privés, internes comme externes : startups, éditeurs de solutions IA, Médias Francophones Public, Union Européenne de Radiotélédiffusion, grands groupes, laboratoires de recherche et monde de l’enseignement. Exemples de livrables Les livrables attendus dans le cadre du présent marché spécifique sont par exemple : · Indicateurs de suivi projet pour tous les sujets engagés · Supports de présentation des projets · Analyse du besoin / comptes-rendus de réunion · Supports de communication

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

1699 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous