Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 845 résultats.
Freelance
CDI

Offre d'emploi
Ingenieur de production FINANCIAL MARKET JUNIOR

Publiée le
Market data

1 an
40k-45k €
400-550 €
Paris, France
Missions : Apporter son expertise dans la mise en place, l’évolution et le suivi de production des solutions d’accès aux marchés (Fixed Income, Forex) Gérer les incidents, anomalies, et mener des investigations approfondies sur les problèmes fonctionnels complexes Rédiger des procédures et documentations pour assurer la pérennité des connaissances au sein de l’équipe Maintenir un échange constant avec les équipes projet pour rester informé des nouvelles fonctionnalités et évolutions applicatives Stack technique (extraits clés) Systèmes d’exploitation : Linux, Windows Monitoring : Geneos, ZABBIX Ordonnancement : Control-M Transfert de fichiers : CFT Bases de données : SQLServer, Oracle Réseaux : TibcoRV, FIX, Multicast Langages : Python, Shell, Powershell Outils de suivi : Jira, Service Now
Freelance
CDI

Offre d'emploi
Data analyst / expert Power BI

Publiée le
Data analysis
DAX
Microsoft Excel

1 an
40k-50k €
450-600 €
Île-de-France, France
Télétravail partiel
Dans le cadre de missions à venir en cours de qualification, nous recherchons dès maintenant des consultants Power BI (CDI ou Freelance) prêts à rejoindre nos équipes dès que possible Exemples de missions à venir : Développement et optimisation de dashboards Power BI Refonte ou migration de rapports depuis d'autres outils (QlikView, Tableau, Excel...) Recueil de besoins métiers et accompagnement à la prise en main des outils Automatisation du reporting et amélioration des KPIs Mise en place de solutions de visualisation pour différents départements (finance, RH, marketing, etc.)
Freelance
CDI

Offre d'emploi
Développeur Back-End PHP / Symfony -Sophia Antipolis (H/F)

Publiée le
Apache Kafka
CI/CD
Elasticsearch

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte du poste Nous recherchons un Développeur Back-End PHP / Symfony confirmé pour intervenir sur un projet stratégique à forte visibilité, autour de la gestion documentaire (GED) et de l’ identité numérique . Vous participerez à la conception, au développement et à l’optimisation d’applications critiques à haute volumétrie, dans un environnement technique exigeant et stimulant. ⚙️ Vos principales missions Concevoir et développer des API RESTful robustes et sécurisées sous Symfony . Intégrer et optimiser les systèmes GED (indexation, recherche, archivage, workflows). Mettre en place des pipelines de traitement de flux (import/export massifs, asynchronisme via RabbitMQ/Kafka). Optimiser la stack technique pour garantir haute disponibilité et performance . Participer aux choix d’architecture (microservices, découplage, performance, observabilité). Rédiger et maintenir la documentation technique et fonctionnelle . Rédiger et exécuter les tests unitaires et fonctionnels . Contribuer à l’ industrialisation (CI/CD, monitoring, logging). Accompagner les développeurs juniors (code review, mentoring). Assurer une veille technologique active sur les sujets performance, sécurité et scalabilité Compétences techniques requises PHP 8.x / Symfony 6.4 ou 7.x – niveau expert. SQL / PostgreSQL – optimisation de requêtes, gestion de fortes volumétries. Conception d’API REST sécurisées (JWT, OAuth2, rate limiting). Expérience avec Elasticsearch / OpenSearch (indexation, recherche). Caching (Redis, Varnish, APCu). Messagerie asynchrone (RabbitMQ, Kafka, Symfony Messenger). CI/CD (GitLab, Jenkins, GitHub Actions). Docker / Kubernetes . Connaissance des bonnes pratiques : DDD, Clean Architecture, Design Patterns, TDD/BDD . Tests : PHPUnit, Behat, Postman/Newman . Bonus : notions en archivage légal / dématérialisation .
Freelance
CDI

Offre d'emploi
Data & Analytics Projects

Publiée le
Microsoft Power BI

6 mois
Neuilly-sur-Seine, Île-de-France
Télétravail partiel
🎯 Contexte de la mission Mission freelance au sein d’un grand groupe international du secteur luxe . L’objectif : piloter la Federated Data Platform (FDP) et assurer le delivery & run du programme Single Source of Truth (SSoT) , dans un environnement Microsoft Fabric . Le rôle combine pilotage produit , coordination IT / data , et accompagnement du changement dans un contexte international exigeant. 🧭 Missions principales Piloter la feuille de route de la Federated Data Platform : releases trimestrielles, priorisation, suivi des livrables. Assurer le delivery et le run du programme SSoT : gestion du backlog, coordination des développements, supervision des réconciliations hebdomadaires. Animer la gouvernance data : coordination entre Divisions , Régions et Corporate , arbitrage des priorités. Garantir la qualité, la sécurité et la conformité des données (KPI, reporting, audits). Collaborer étroitement avec les équipes Cloud & Data Architecture , les intégrateurs et experts BI. Préparer et transférer le handover vers les équipes internes en fin de mission. 🧠 Profil recherché Freelance confirmé(e) en pilotage de projets Data & Analytics (8–12 ans d’expérience) . Solide maîtrise de Microsoft Fabric (OneLake / Lakehouse), Power BI , Azure AD , Git , Azure DevOps . Connaissances en DataOps et FinOps appréciées. Français & Anglais courants indispensables (environnement international). Excellent leadership , sens de la priorisation et communication claire . Expérience dans le retail ou le luxe serait un plus. ⚙️ Environnement technique Microsoft Fabric (OneLake / Lakehouse) Power BI , Azure AD , Azure DevOps , Git Méthodologies DataOps , bonnes pratiques FinOps Collaboration avec partenaires intégrateurs et data custodians 📅 Conditions de mission Lieu : Neuilly-sur-Seine (présence sur site attendue 2 à 3 jours / semaine) Durée : 6 mois (03/11/2025 → 30/04/2026) Statut : Freelance / indépendant(e) Temps plein
Freelance
CDI

Offre d'emploi
Chef de Projet Data Management / DataGouvernance

Publiée le
Data governance
Data quality

2 ans
40k-60k €
400-700 €
Maroc
Intitulé du poste : Data Project Manager Contexte et mission Dans le cadre du déploiement de la stratégie nous recherchons un Data Project Manager pour piloter plusieurs projets innovants dans les domaines de la digitalisation, de l’automatisation et de l’intelligence artificielle. Afin d’assurer une intégration cohérente, sécurisée et efficiente des données issues de ces projets, une ressource dédiée est positionnée sur site au quotidien, en lien direct avec les équipes opérationnelles, techniques et data. Le/la Data Project Manager a pour mission de : - Superviser l’ensemble des aspects “data” des projets menés localement - Servir d’interface terrain entre les équipes projets Entité et le Data Office (Data Platform, DataViz, Data Governance) - Garantir l’alignement avec les principes “Data by Design” et les standards du Data Office Responsabilités principales • Accompagner les équipes projets sur site pour identifier, structurer et prioriser les besoins data • Cartographier les flux de données associés aux solutions en cours • Veiller à la cohérence des projets (interopérabilité, automatisation, architecture cible) • Faire le lien quotidien avec les entités du Data office o Data Platform (collecte, ingestion, architecture cible) o Data Governance (catalogue, qualité, ownership) o Data Visualisation & Analytics o Formaliser les expressions de besoins de manière structurée et les traduire en spécifications pour delivery o Alerter sur les éventuels écarts par rapport aux standards data groupe Gestion de projet : • Piloter les projets data locaux en termes de planning, livrables, qualité et budget • Animer les rituels projets (comités de suivi, points hebdo, reporting) • Documenter les flux, architectures locales, choix techniques et méthodologiques Qualité, sécurité, interopérabilité : • S’assurer que chaque projet respecte les principes "Data by Design" • Intégrer dès la phase amont les exigences de gouvernance, sécurité (cyber), et qualité des données • Participer aux évaluations de faisabilité, tests de connectivité, structuration des pipelines
CDI

Offre d'emploi
Data Analyst/Scientist F/H

Publiée le

50k-70k €
Ivry-sur-Seine, Île-de-France
Télétravail partiel
Rattaché(e) à la Directrice du Contrôle interne, les missions sont notamment les suivantes : - Construire, avec les directions métiers et en lien avec les cartographies des risques (Fraude et corruption), les systèmes de contrôles basés sur l'analyse de données en masse et l'utilisation d'intelligence artificielle, - Participer à la mise en place et à la supervision des indicateurs permettant de monitorer les activités de contrôle interne, - Coordonner les actions de renforcement du contrôle interne financier (revues de bilan) et IT (gestion et contrôle des accès, contrôles minimaux IT), - Informer les instances dirigeantes à travers l'animation des Comités de Contrôle Interne ou Comités dédiés, - Participer aux points de coordination avec les autres fonctions dédiées à l'amélioration de la performance et à la maîtrise des risques (Sûreté, Audit Interne, Directions opérationnelles...).
Freelance

Mission freelance
Chef de projet Data H/F

Publiée le
Big Data

12 mois
400-510 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Mission de Chef de projet Data / Contexte Banque Risque/Finance Contexte : Dans le cadre d’un projet de transformation Data au sein du domaine Risque/Finance de notre client, nous recherchons une prestation avec les compétences suivantes : Profil recherché : · CP expérimenté avec des missions validées en tant que Chef de projet Data réalisées dans un environnement bancaire : · Cadrage, Etudes, · Chiffrage et planification des projets · Suivi budgétaire · Idéalement dans un contexte réglementaire / Risque / Finance (ex. COREP/FINREP…) ;
Freelance

Mission freelance
Développeur CRM Salesforce Marketing Cloud

Publiée le
Data Lake
Salesforce Sales Cloud

1 an
400-550 €
Nantes, Pays de la Loire
Télétravail partiel
Recherche – Développeur CRM Salesforce Marketing Cloud (Nantes | 2 à 3 jours/semaine) Dans le cadre d’une consultation sur le contrat-cadre AST & Digital , nous recherchons un Développeur CRM Salesforce Marketing Cloud (expérimenté ou senior). 📅 Démarrage prévu : 4 décembre 2025 ⏱️ Rythme : mi-temps (2 à 3 jours par semaine) 📍 Présence sur site : lundi, mardi et jeudi 🎯 Missions principales Développer, maintenir et intégrer des solutions Salesforce Marketing Cloud : Emails, Push, Journey Builder, Automations, Datorama. Créer et personnaliser des parcours clients et des contenus dynamiques (HTML, AMPscript, responsive design, gestion de Data Extensions, Interactive Email Form). Implémenter des API et SDK SFMC sur applications mobiles natives, gérer la synchronisation CRM/Datalake et les processus automatisés RGPD . Assurer la gestion opérationnelle , les releases , le monitoring et l’ optimisation des performances (tracking, délivrabilité, réputation IP). Apporter support et conseil aux équipes métiers et digitales, dans un environnement agile et collaboratif.
Freelance

Mission freelance
Mission Freelance – Data Scientist (Confirmé / Sénior)

Publiée le
Data science

1 an
400-590 €
Île-de-France, France
Télétravail partiel
Vos missions Construire et maintenir des dashboards Power BI de pilotage : profils utilisateurs, engagement, objectifs, segmentation RF. Réaliser des analyses comportementales sur les profils de vidéonautes : consommation, canaux d’acquisition, pression publicitaire, etc. Développer des cas d’usage Data Science et IA : Prédiction des audiences, churn, appétence, inactivité. Recommandations de contenus, enrichissement du catalogue via IA générative. Segmentation utilisateurs et scoring. Valoriser et restituer les résultats aux équipes internes (marketing, produit, éditorial). Compétences recherchées Solide expérience en analyse de la connaissance client / utilisateur (cycle de vie, churn, fidélisation). Maîtrise de Python et SQL (Spark apprécié). Expérience confirmée en Data Science : modèles de prévision, algorithmes de recommandation, scoring. Connaissance d’un environnement GCP / BigQuery . Bonne compréhension des outils Piano Analytics / Google Analytics . Capacité à vulgariser les résultats à des interlocuteurs variés. Esprit d’équipe, curiosité, rigueur et autonomie.
Freelance
CDI

Offre d'emploi
Data Analyst

Publiée le
Pandas
PySpark

1 an
Île-de-France, France
Mission ne convient pas à un data scientist Compétences OBLIGATOIRES : Guru en PySpark Très bonne maitrise de Tableau et de Panda. Capacité d'analyse, bon niveau statistique. Démarrage : ASAP Experience : 4/5ans min Dans le cadre de ce besoin : En tant que consultant data au sein de la Cellule du Qualité de Fixe (CQF) de Bouygues Telecom, vous serez en charge de produire des analyses à partir de dataset que vous aurez constitués sur des données de nos plateformes Big Data, Vous aurez également la responsabilité de rendre disponible des données, une fois celles-ci nettoyées, préparées et formatées sous forme de dataset ou de table à disposition des datascientists de l'équipe. Vous aurez à développer des tableaux de bord de suivi de KP.. Vous serez en charge de : -L'exploitation de la plateforme Big Data de monitoring Wifi des Box : A ce titre vous aurez la charge : -Du monitoring des principaux KPI du système et la misé en œuvre des nouveaux KPI -Des investigations lors d'incident : Vous déclencherez et piloterez le fournisseur et / ou les autres entités de Bytel contribuant à son bon fonctionnement. -Vous serez le garant de mise à disposition des données issues du cluster HDFS. Vous aurez des scripts Scala / Spark à développer pour toute évolution à la demande de l'équipe Datascience ou en fonction des évolutions du système. -Vous assurez la mise en œuvre des politiques de sécurités et de sauvegarde, et appliquer tout patch ou correctif nécessaire à cette intégrité. -Du pilotage des fournisseurs externes et internes pour les évolutions de la plateforme, que ces évolutions portent sur le hardware, les applicatifs, ou l'architecture réseau. La data ingénierie et l'exploitation de la plateforme Data en architecture de type microservices, basée sur Kubernetes et OpenShift. Vos tâches seront de : -Assurer la supervision et débogage du système via Openshift -S’assurer du bon fonctionnement des applicatifs (Spark, MinIo, Jhub, MySQL, Airflow) -Contrôler les volumes et consommations Hardware de la plateforme -Débugger les pods en cas d’erreur -Assurer l’écriture des graphes Helm pour les déploiements applicatifs -Ecriture de charts Helm pour le déploiement de nouveaux applicatifs -Tester les nouveaux graphes sur la plateforme de test -Déployer et patcher les applicatifs déjà existants avec Helm -Assurer la pérennité de la plateforme en gérant efficacement les images et graphes via GitLab -Assurer la gestion des utilisateurs et des règles de gestion du Datalake -Gestion des buckets et utilisateurs -Création de points de stockage et destis règles de gestion associées -Création de scripts pour le stockage de Parquets -Assurer le fonctionnement du déploiement continu avec GitLab -Administration des images de production Gitlab et DockerHub En résumé : Guru en PySpark et très bonne maitrise de Tableau et de Panda. Avec une capacité d'analyse, bon niveau statistique. Amené à faire du développement descriptif de requête pour diffuser des KPI sous forme de dashboard Tableau.
Freelance

Mission freelance
Ingénieur DATA – Coordination & Support Technique IA Industrielle

Publiée le
Data analysis
IA

1 an
500 €
Belgique
Télétravail partiel
Assurer la coordination et le support technique Data & IA pour l’industrialisation et l’optimisation des flux de données. L’objectif est de structurer, automatiser et rendre exploitables les données industrielles , tout en développant les premiers use cases IA opérationnels pour la ligne de production. 1. Coordination Data & IA Piloter et structurer l’automatisation de l’alimentation de la plateforme 3DEXpérience depuis Publisher , en exploitant des techniques d’IA (machine learning, NLP…). Documenter et suivre les scripts et workflows de migration automatisés . Proposer les premiers use cases DATA & IA pour la production. Appuyer l’équipe UNS sur la structuration des données industrielles pour usages IA futurs. Veille technologique et reporting sur les sujets Data & IA. 2. Support technique et développement Implémenter et tester les scripts et workflows de migration de données (DataPrep, ETL, IA) sur données simulées ou réelles. Concevoir et tester des use cases IA “production ready” : supervision process, maintenance prédictive, contrôle qualité automatique. Structurer les datasets pour l’entraînement IA : normalisation, règles qualité, automatisation des flux. Assurer documentation technique et transfert de compétences aux équipes.
Freelance

Mission freelance
ALSL - Tech Manager Data

Publiée le
Apache Airflow
AWS Cloud
Big Data

6 mois
550-620 €
Paris, France
Télétravail partiel
Nous cherchons un Tech Manager Data qui saura allier leadership technique et pilotage stratégique autour d’un sujet clé : l’exploitation des données issues des Property Management Systems. Ces données sont le cœur du fonctionnement : réservations, facturation, occupation, services. Ton rôle ? Les transformer en un actif stratégique fiable, pour booster la performance et la distribution des services. En tant que Tech Manager Data , tu seras : Le leader technique et managérial de deux équipes (internes & partenaires externes). Le chef d’orchestre des projets data PMS : collecte, intégration, fiabilisation et monitoring. Le binôme stratégique du Product Manager Data pour construire la roadmap et prioriser la valeur. Le garant de la fiabilité et de la performance des produits data : monitoring, alerting, optimisation FinOps/DevOps. L’ interface clé entre les équipes métiers, IT et les éditeurs PMS.
CDI

Offre d'emploi
Data scientist

Publiée le
Python

40k-60k €
Paris, France
Télétravail partiel
Ce rôle de Data Scientist est une nouvelle création de poste, avec un démarrage envisagé en janvier 2026 . Le Data Scientist rejoindra l'équipe pour travailler sur des projets d'analyse de données, d'apprentissage automatique (Machine Learning - ML), de collecte de données et de développement d'applications/solutions. Les principales responsabilités incluent : L'analyse approfondie de la donnée. La récolte et le traitement des jeux de données. Le développement et l'implémentation de modèles de Machine Learning. Le déploiement des solutions développées.
CDI

Offre d'emploi
Data Ops

Publiée le
DevOps
Python

40k-70k €
Levallois-Perret, Île-de-France
Télétravail partiel
Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte - Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée. - Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. - Une plateforme d'exécution des modèles de Datascience, Sparrow Serving. - Un outil de Community Management, Sparrow Academy. L’équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel à une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Dans ce contexte, nous faisons appel à une prestation en assistance technique. les missions sont : - Administration/Exploitation/Automatisation système d’exploitation de nos clusters - Build et optimisation d’images Docker + RUN de nos 400 containers de production (>500 utilisateurs). - Construire, porter la vision technique de la plateforme et piloter les choix technologiques et d’évolution de l’architecture. - Faire de la veille et se former aux technologies les plus pertinentes pour notre plateforme de data science afin de continuer à innover. - Rédaction de documents techniques (architecture, gestion des changes et incidents). - Production de livrables de qualité et partage des connaissances à l’équipe. Notre stack technique : - Infrastructure / DevOps : GitLabCI/CD, GitOps ( ArgoCD ). Cloud privé BNP. - Containers: Docker, Kubernetes. Profil recherché : - Compétences avancées sur Kubernetes (Architecture, Administration de Clusters) - Connaissances sur la gestion des secrets (Vault) - Bonnes compétences réseau : reverse proxy (Traefik), authentification (Keycloak, JWT, OIDC). - Bonnes connaissances de GitLab et des processus de CI/CD. - Connaissances de l’approche GitOps ( ArgoCD ) - Compétences sur l’observabilité dans un contexte Kubernetes ( Prometheus, AlertManager, Grafana ) - Connaissances en bases de données relationnelles (PostgreSQL) appréciées. - Anglais correct à l’écrit et à l’oral. - Profil rigoureux. Les sujets traités par l’équipe sont variés : - Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; - Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; - Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité); - Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; - Être force de proposition et participer aux POCs. Stack Technique de l’équipe : - Langages : Python, Golang, Bash - GNU/Linux - Kubernetes - Observabilité : Prometheus, Thanos, AlertManager, Grafana - Sécurité : Vault - DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize, CUE/Timoni - Cloud services : Certmanager, Redis, Jaeger, ELK, MinIO, PostgreSQL, ClickHouse, External-DNS
Freelance

Mission freelance
Data Engineer

Publiée le
Hadoop

6 mois
100-420 €
Orléans, Centre-Val de Loire
Nous recherchons quelqu’un avec de solides compétences sur SQL (notamment HIVE)..... ...... ..... ..... ..... ..... ...... ..... ..... ..... ..... ..... ... .... .. ..... ...... HADOOP (développement sur Cloudera Data Platform)...... ...... ...... ..... .. .. .. .... ..... .... .... ... ... ... Shell UNIX. ...... ....... ...... ....... ....... ..... ....... ..... ..... .... .... ....... ..... Git...... ...... ...... ...... ...... .... ..... ....... .... ... .... .... .... .... ... ... ... ... ...
Freelance
CDI

Offre d'emploi
Architect Data

Publiée le
Architecture
AWS Cloud
Azure

12 mois
70k-80k €
600-700 €
Île-de-France, France
Télétravail partiel
Au sein de la Data & IA Fabric d’INVENTIV IT vous serez amené à travailler sur une partie opérationnelle et stratégique. Nous travaillons principalement sur des projets régie auprès de nos clients. Ce poste requiert une solide expérience technique et architecturale, ainsi qu'une expertise pratique des technologies cloud, du développement de microservices et de l'architecture événementielle. Il implique également une collaboration étroite avec les équipes informatiques, les partenaires commerciaux et externes, et l'ensemble des membres de l'équipe d'intégration. Les compétences suivantes sont essentielles : Leadership et autonomie Engagement sur les sujets Capacité à fournir des justificatifs dans le cadre d’un audit, d’un POC, MVP ou concernant les normes et l’architecture Objectifs et livrables : - Concevoir et proposer des solutions de données utilisant les technologies Azure Cloud au sein de notre cadre de travail (AWS est un +) - Concevoir et proposer des solutions Snowflake et Databricks - Appliquer la stratégie « Data as service » conformément aux bonnes pratiques d’architecture - Concevoir et développer des API/microservices pour enrichir notre cadre de solutions - Soutenir la stratégie d’architecture événementielle basée sur Azure Event Hub et Azure IoT Hub - Contribuer à notre Data Catalog pour l’enrichissement en libre-service - Contribuer à la modernisation et à la sensibilisation aux technologies - Être la personne de référence au sein de l’équipe pour toutes les questions relatives à la Data & au cloud - Animer des ateliers et faciliter la collecte des besoins - Apporter un soutien aux ingénieurs de données sur les sujets liés au cloud - Apporter un soutien à l’équipe Sécurité sur les sujets connexes - Contribuer à la feuille de route et à l’évolution de la Capture de données - Assumer un rôle de critique et de soutien auprès des fournisseurs externes - Capacité de mettre en place une conduite de changement (by design) - Capacité de travailler sur de l’analyse prédictive et préventive - Capacité de simplifier et d’augmenter l’usage de la Data aux métiers, business - Contextualiser et standardiser les données - Répondre aux problématiques de l’accès à la données (données en temps réelles) - Valoriser la transformation digitale et la data au service du business - Fournir de la data dans l’ensemble de cycle de vie du produit - Réduire et optimiser le time to Market - Avoir une approche Data Driven pour chaque produit digital - S’assurer de la cohérence des données entre les systèmes - Capacité d’avoir une ouverture de virtualisation (peu importe les technos - Gouvernance de données fédéré) - Avoir une vision produit, business & métiers / Cadrage & Delivery - Capacité de lier les sujets à une BDM (Analytics) - Création d’Asset majeur pour la performance de l’entreprise ✔️ Vous auditez l’écosystème data et faites des préconisations associées dans le cadre de la modernisation des plateformes Data ✔️Vous élaborez des ’architectures logiques et techniques de plateforme data en tenant compte des besoins ✔️Vous adaptez chaque architecture en fonction du contexte : maîtrise des caractéristiques fondamentales de chaque solution (catalogue des offres de services managés, performance, sécurité, déploiement des data centers…) ✔️Vous définissez le plan de transformation de l'écosystème data et êtes capable d’encadrer les équipes dans la mise en place des architectures préconisées et / ou des plateformes Data Operating model Data : (compétences) - organisation - mission - outils - IA Generative - Time To Market & ROI - industrialiser dans le même délai que le POC - Automatisation / Robotisation Compétences - Snowflake & Databricks - EDA - Architecture - Fonctionnel - Réseau & Sécurité - intégration continue - SQL & BDD - Cloud Azure & AWS - Data - Codage - IA (intelligence artificielle) - Platform Data & Data Market Place - Data Hub & Analytics - Anglais & Français : Courant Langage naturel - Catalogue de données - Systèmes de stockage de données avec outils IA - Données durables et responsable Exemple de réalisation : - Data Market Place / Platform Data - IA Generative (questionnement via un chatbot) à partir de la données simplifiés (Platform Data) - Data hub & Gouvernance Comme nous le disons au sein d’INVENTIV IT, le coeur de la transformation digitale est la Data c’est le pouvoir d’agir pour toutes organisations
1845 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous