Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 780 résultats.
Offre d'emploi
Senior Data Engineer (5+ ans d'exp)
WINSIDE Technology
Publiée le
Azure
Databricks
3 ans
40k-60k €
100-500 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer Senior pour une grande entreprise internationale sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 5 ou plus années d'expérience professionnelle en tant que Data Engineer. tu as travaillé au moins 3 ans sur le cloud Azure. tu maîtrises Databricks, Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. tu es expert.e dans la conception et optimisation d'architectures data tu maîtrises la modélisation de données (schéma analytique, SCD, faits et dimensions). tu as déjà travaillé sur des outils de développement assistés par l'IA. tu as déjà implémenté des Data Quality. Stack supplémentaire démandée : Python, SQL, Git. Objectif principal du poste : Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Missions : Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards. Démarrage : mars 2026. TT: 2 jours par semaine. Durée : 3 ans. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Mission freelance
Lead Tech Python – GenAI (H/F) – Mission 3 jours semaines – Île-de-France
HOXTON PARTNERS
Publiée le
AWS Cloud
GenAI
Python
10 mois
550 €
Massy, Île-de-France
Dans le cadre de la mise en place d’une GenAI Factory au sein d’un grand acteur bancaire, nous recherchons un Lead Tech Python expérimenté. La mission consiste à intervenir comme référent technique auprès d’une équipe de développeurs GenAI afin de renforcer la qualité et la robustesse des développements Python. Le consultant participera activement au développement, challengera les choix techniques, diffusera les bonnes pratiques (architecture, structuration de code, tests, performance) et recommandera les librairies adaptées aux cas d’usage IA générative (LLM, RAG, orchestration, etc.). Une expérience concrète en développement sur des projets Generative AI est indispensable. Une connaissance d’environnements cloud, idéalement AWS, est fortement appréciée.
Mission freelance
Consultant PowerCenter à Niort
STHREE SAS pour COMPUTER FUTURES
Publiée le
BigQuery
Informatica PowerCenter
3 mois
210-350 €
Niort, Nouvelle-Aquitaine
Bonjour, Je suis à la recherche Consultant PowerCenter à Niort : Missions principales : Ø Collecter, organiser, traiter et diffuser la donnée afin de la transformer en information exploitable par l’ensemble des métiers. Ø L’équipe joue un rôle central dans la mise en œuvre opérationnelle de la stratégie Data Ø Accompagner le développement d’usages responsables et performants de l’IA Ø Développer et maintenir des flux et traitements PowerCenter. Ø Participer au migration progressive vers le Cloud, notamment via : DBT et BigQuery Ø Contribuer à la mise en place des bonnes pratiques, à la qualité des livrables et au respect des standards internes. Ø S’intégrer pleinement dans un contexte Agile, en participant aux rituels et à l’amélioration continue.
Offre d'emploi
Sales / Commercial junior (cabinet de recrutement spécialisé dans l'IT)
Zenith Rh
Publiée le
Commercial
Recrutement
Paris, France
Présentation de l’entreprise: Zenith est un cabinet de recrutement spécialisé dans l’IT. Créé il y a 5 ans, Zenith génère aujourd’hui un CA de près de 10 M€ et se développe à vitesse grand V. Notre marque de fabrique : une persévérance à toute épreuve, de l'humilité et un positionnement qualitatif soutenu par une tech dopé à l'IA Nous recherchons des profils avec un étape d'esprit d'entrepreneur, impliqué, curieux, humble. Vous serez le point de contact commercial privilégié de nos clients Vos missions seront de : - Prospection téléphonique (rituel quotidien) - Conduire les entretiens téléphoniques et Visio - Valider l’adéquation des profils proposés avec les besoins du client - Assurer les prises de références systématiques. - Animer la relation client de nos clients existants et maintenir un niveau de satisfaction excellent - Répondre aux appels d'offre Ce que nous apportons: - Évoluer dans une start-up à forte croissance offrant de belles perspectives d’embauche et d’évolution - Une équipe mixte IT/ recrutement - Des supers locaux dans le 8ème à Paris à côté de St Lazare - Tickets restaurants - Abonnement sport remboursé - 8 RTT - PEE - Salaire fixe selon profil (de 30k€ à 35k€) + variable non capé - CDI Statut Cadre
Mission freelance
Développeur Python/Angular H/F
Nexius Finance
Publiée le
FastAPI
Python
3 ans
Paris, France
Contexte Vous évoluez au sein d’une équipe transverse dédiée au développement rapide de solutions à forte valeur ajoutée pour différents métiers. Notre positionnement est hybride : Développement “commando” en proximité directe avec les équipes métier Conception de solutions innovantes intégrant l’IA Générative Veille technologique et exploration de nouveaux usages autour de la Data et de l’IA Accompagnement à l’industrialisation des solutions dans un environnement IT structuré L’équipe (une vingtaine de profils : data engineers, data scientists, développeurs full stack, tech lead, chef de projet) fonctionne en mode agile , avec une forte culture d’entraide, d’autonomie et de responsabilité collective. Le client recherche un profil capable de s’intégrer dans cette dynamique, avec un bon relationnel et une vraie capacité à interagir avec des interlocuteurs métiers. Missions: Vous interviendrez en tant que Développeur Full Stack sur des sujets variés mêlant développement applicatif et IA générative. Projet principal: Vous démarrerez sur un chantier stratégique : Développement d’une solution d’évaluation ESG d’entreprises à partir d’un corpus documentaire, intégrant des APIs d’IA générative (LLMs, RAG). Vos responsabilités: Concevoir et développer des solutions logicielles de bout en bout Garantir la qualité du code (tests unitaires et fonctionnels, performance, maintenabilité) Développer des interfaces dynamiques et réactives en Angular Concevoir et exposer des APIs via FastAPI Participer à la réalisation de POCs autour de l’IA générative Concevoir des applications intégrant des modèles de type LLM Assurer la maintenance évolutive et le run d’applications existantes Collaborer avec les équipes produit/design lorsque nécessaire Participer à la mise en place des bonnes pratiques (documentation, standards, qualité) Échanger directement avec les équipes métier pour comprendre, challenger et affiner les besoins Profil recherché:Compétences techniques Très bonne maîtrise d’Angular Solide expérience avec FastAPI et les services web Très bonne maîtrise de Python Connaissance des bases de données relationnelles et non relationnelles Maîtrise des outils de versioning (Git) Bonne compréhension des concepts liés à l’IA générative (LLM, RAG, APIs d’IA) Une expérience sur des projets intégrant de l’IA générative est fortement appréciée.
Offre d'emploi
Ingénieur Cybersécurité
AVA6
Publiée le
35k €
Merpins, Nouvelle-Aquitaine
Tes missions majeures : Activités Opérationnelles (environ 70% du temps) - Gestion des alertes de sécurité : principalement autour de la messagerie (mails suspects remontés par les utilisateurs, mais bloqués par nos filtres). Mais aussi nos solutions de protection des endpoints (EDR) et des indentités. - Gestion des vulnérabilités (postes de travail, serveurs et réseau hors US et Asie) : analyse des risques remontés par les scans, priorisation, remontée des infos aux équipes en charge de la remédiation, support et suivi de ces équipes. - Revues de conformité (exemple : présence et effectivité de l'ensemble de nos outils cyber sur l'ensemble de nos endpoints, revue de l'utilisation de sites d'IA, suivi proactif des cycles « End of Life / End of Support ») - Suivi des actualités cyber au quotidien, pour prendre en compte l'évolution des menaces (contextualisation dans l'environnement Rémy Cointreau, mise en oeuvre de mesures lorsque nécessaire) - Participation à la production de tableaux de bord cyber Amélioration Continue (environ 30% du temps) - vous participerez à des initiatives telles que (liste indicative) : - Optimisation de tableaux de bord Cyber (Dashboarding) - Optimisation de l'utilisation de nos outils cyber - Optimisation de la génération de détections et de leurs traitements - Exploration et déploiement de nouvelles solutions cyber
Offre d'emploi
Expert data & BI - Secteur Industrie
OCTOGONE
Publiée le
BI
Preuve de concept (POC)
2 ans
Hauts-de-Seine, France
Objectif : Accélérer les projets et augmenter la valeur métier des solutions en explorant et en prototypant de nouvelles technologies (IA, Data/BI) et méthodes (Agilité). Attendus : Des prototypes et "Proof of Concepts" (PoC), des tableaux de bord décisionnels (Power BI), un accompagnement (coaching) des équipes à l'agilité, et des études de veille technologique. Concevoir et développer des chaînes de traitement de données. Modéliser les schémas et structures des données pour l'analytique métier. Construire des tableaux de bord et des rapports pour les métiers (Power BI, etc.).
Mission freelance
Ingenieur devops H/F
ALLEGIS GROUP
Publiée le
Kubernetes
Linux
Openshift
3 ans
Nice, Provence-Alpes-Côte d'Azur
1. Exploitation et supervision des environnements IA : • Superviser les environnements IA (clusters, plateformes conteneurisées, workloads intensifs) • Mettre en place et maintenir les outils de supervision, de monitoring et d’alerting • Analyser les incidents, problèmes de performance et situations de saturation • Assurer le maintien en conditions opérationnelles (MCO) des plateformes • Participer à la gestion de la capacité et à l’anticipation des besoins compute • Contribuer à la montée en charge des plateformes IA (scalabilité, résilience, haute disponibilité) • Optimiser l’utilisation des ressources (compute, GPU, mémoire, stockage) en lien avec les équipes infrastructure 2. DevOps & automatisation : • Concevoir, écrire et maintenir des playbooks Ansible (idéalement via Ansible Automation Platform) • Automatiser les actes récurrents d’exploitation et de provisioning • Industrialiser les déploiements et opérations via des pipelines CI/CD • Être force de proposition sur l’amélioration continue des processus d’automatisation 3. Plateformes conteneurisées & OpenShift : • Administrer et exploiter des clusters OpenShift • Participer à la standardisation et à la sécurisation des plateformes Kubernetes • Contribuer à la stabilité, à la performance et à la montée en charge des environnements conteneurisés Date de démarrage : Immédiatement, Localisation : Nice Rythme : 2 jours de télétravail Mission longue visibilité
Mission freelance
Data scientist Senior
CAT-AMANIA
Publiée le
CI/CD
Jenkins
Python
6 mois
Île-de-France, France
Dans le cadre d'un programme de transformation de l'efficacité opérationnelle (Programme HERA) pour un acteur majeur du secteur de l'Assurance, nous recherchons un profil technique capable d'assurer la mise en production et l'évolution de solutions d'intelligence artificielle. Le projet porte spécifiquement sur l'amélioration des processus financiers via un algorithme existant dédié à l'identification automatique des bénéficiaires au sein de clauses contractuelles libres. Vos responsabilités : Assurer la mise en production (industrialisation) des évolutions algorithmiques. Garantir la fiabilité du code via la mise en place de tests unitaires rigoureux. Optimiser et maintenir les pipelines de déploiement continu (CI/CD). Collaborer à l'amélioration de l'efficacité opérationnelle des flux financiers. Environnement technique : Langage : Python (Expertise requise) DevOps : CI/CD, Jenkins Qualité : Tests unitaires IA : Deep Learning, idéalement connaissances en Conditional Random Fields (CRF)
Offre d'emploi
Data Engineer (F/H)
CELAD
Publiée le
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Mission freelance
Data Engineer (F/H)
CELAD
Publiée le
1 an
450-550 €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Offre d'emploi
Data Engineer (F/H)
CELAD
Publiée le
45k-55k €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Mission freelance
Tech Lead Senior (Applications Marketing & Data)
Sapiens Group
Publiée le
BigQuery
Google Cloud Platform (GCP)
12 mois
500-540 €
Île-de-France, France
Nous recherchons un Tech Lead Senior pour piloter et faire évoluer plusieurs applications stratégiques liées à la performance des assets média. Vous évoluerez dans une équipe pluridisciplinaire composée de profils variés (Développeurs Full Stack, Data Scientists, Data Engineers, Product Owner, QA) dans un environnement dynamique et orienté data. L’une des applications principales vise à offrir une vision complète de la performance et de l’optimisation des assets média , couvrant l’ensemble de la chaîne de valeur : de la stratégie globale jusqu’à l’activation locale . Missions principales Leadership technique Encadrer et superviser les ressources techniques de l’équipe. Assurer le rôle de référent technique et accompagner les développeurs dans les choix technologiques et les bonnes pratiques. Architecture & conception Concevoir et définir les architectures et solutions techniques des applications. Garantir la robustesse, la scalabilité et la maintenabilité des systèmes. Développement & intégration IA Piloter et gérer des applications intégrant des briques d’intelligence artificielle : gestion de la code base data pipelines optimisation des modèles déploiement et supervision Intervenir sur l’ensemble de la stack : Front-end, Back-end, Cloud Infrastructure et DevOps . Data & Cloud Exploiter et intégrer les données issues du datalake du Groupe (BigQuery) . Maîtriser l’écosystème Google Cloud Platform (GCP) et contribuer aux bonnes pratiques d’architecture cloud. Collaboration transverse Agir comme point de contact technique auprès des équipes transverses : Cybersécurité Data Privacy Enterprise Architecture Garantir la conformité des solutions aux standards du groupe. Résolution de problématiques techniques Investiguer et résoudre des problématiques techniques complexes : debugging avancé optimisation des performances migration d’infrastructures amélioration continue des systèmes. Profil recherché Expérience confirmée en lead technique / Tech Lead / Architecte . Solides compétences en développement full stack et architectures cloud . Expérience sur Google Cloud Platform (GCP) et BigQuery . Bonne compréhension des architectures data et IA/ML pipelines . Capacité à travailler dans un environnement transverse et collaboratif . Forte aptitude à analyser, diagnostiquer et résoudre des problèmes techniques complexes .
Mission freelance
Ingénieur Logiciel Senior (Fullstack .NET / PHP)
Nicholson SAS
Publiée le
.NET
Amazon S3
AWS Cloud
6 mois
500 €
Paris, France
Mon client, filiale d'un groupe international, est un leader mondial dans le déploiement de l'IA et des technologies avancées pour le secteur juridique. Vous rejoindrez notre équipe technique française, actuellement engagée dans un ambitieux programme de convergence technologique , visant à unifier nos solutions sous une architecture .NET moderne pour soutenir nos innovations en IA. En tant qu'Ingénieur Logiciel Senior, vous jouerez un rôle pivot dans la rationalisation de nos plateformes. Nous recherchons un profil hybride capable de maintenir nos systèmes PHP actuels tout en pilotant leur migration progressive vers une stack .NET . Ce poste est idéal pour un expert doté d'une double culture logicielle, souhaitant mettre son expérience PHP au profit d'une transformation d'architecture majeure vers le C# / .NET au sein d'un environnement Fullstack. Responsabilités Transition Technologique : Piloter la migration des composants et services historiques de la stack PHP (Symfony/Laravel) vers l'écosystème .NET / C# afin d'unifier nos environnements de production. Développement Fullstack : Concevoir des architectures robustes et scalables en veillant à la cohérence entre les anciens services et les nouvelles interfaces .NET. Qualité & Architecture : Garantir la pérennité du code (revues, tests unitaires/intégration) et participer activement à la définition des nouveaux standards techniques avec les architectes. Collaboration Agile : Évoluer au sein d'une squad SCRUM/KANBAN pour livrer des fonctionnalités en cycle continu (CI/CD). Mentorat : Accompagner l'équipe dans la montée en compétence sur l'univers .NET durant cette phase de transition. Prendre en considération une option d'une internalisation en CDI au bout de 6 mois de prestation. Si schéma d'internalisation non souhaité pour vous, merci de ne pas postuler !
Offre d'emploi
Product Owner Data RH - F/H - Informatique de gestion (H/F)
█ █ █ █ █ █ █
Publiée le
JIRA
Scrum
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Juriste confirmé en droit numérique
Codezys
Publiée le
ISO 27001
ISO 27005
RGPD
12 mois
Toulouse, Occitanie
Contexte de la mission Assister et conseiller les chefs de projets informatiques dans l'identification des données à caractères personnels, des traitements associés, documenter les livrables RGPD selon la méthodologie officielle en lien avec l'expert en sécurité des systèmes d'information, dans le respect de la méthode du groupe bancaire concerné, définir et recetter les exigences, identifier / évaluer les risques en matière de protection des données et proposer des actions de remédiation. Les missions incluent également : Rédiger les analyses d'impact relatives à la protection des données (AIPD / PIA) en collaboration avec les départements métiers, les délégués à la protection des données (DPO), les filières juridiques / achats et la conformité du groupe. Contribuer à la sensibilisation des collaborateurs au quotidien sur la vie privée, notamment en matière de RGPD, cookies et traceurs, usages des données, intelligence artificielle, etc. Effectuer une veille réglementaire et technique en matière de protection des données. Assurer le support en cas de violation de données, de demandes des autorités de contrôle, d'exercices de droits, et coordonner le support avec les plateformes internes et la direction dédiée à la protection des données du groupe.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
780 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois