Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 743 résultats.
Offre d'emploi
Consultant Juriste Confirmé Data Privacy-RGPD
KEONI CONSULTING
Publiée le
Big Data
Gestion de projet
RGPD
18 mois
20k-60k €
100-450 €
Toulouse, Occitanie
Contexte Recherche en Droit Numérique MISSIONS - Assister et conseiller les chefs de projets Informatiques dans l'identification des données à caractères personnelles, des traitements associés, documenter les livrables RGPD selon la méthodologie CNIL en lien avec l'expert Sécurité des Systèmes d'Information dans le respect de la méthode Groupe, définir et recetter les exigences, identifier / évaluer les risques en matière de protection des données et proposer des actions de remédiation. - rédiger les AIPD /PIA en lien avec les Métiers et les DPO concernés, les filières Juridiques/Achat, Conformité du Groupe mais également pour - Contribuer à la sensibilisation des collaborateurs au quotidien en matière de Privacy (RGPD, Cookies et Traceurs, usages Data et IA...) des systèmes d'information. - Effectuer une veille en matière de Protection des données - Assurer le support en cas de violations de données, demandes de la CNIL et d'exercices de droits et en assurer le support auprès des plateformes Métiers et en lien avec la Direction Protection des Données du Groupe Vous êtes autonome rigoureux, pédagogue, communicant, dynamique et proactif. Expertises spécifiques : Compétences Juridiques Requises / Certification DPO CNIL indispensable Compétences informatiques : MOOC ANSSI, Architecture des SI, Iso 27001/27005/27701 Connaissances des métiers Banque et Assurances requises Connaissances Méthode Projet Agile
Offre d'emploi
Data Scientist F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Big Data
Python
SQL
Grenoble, Auvergne-Rhône-Alpes
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Tech Lead Data AWS /Data Governance /Power BI /Tableau /Anglais (H/F)
Octopus Group
Publiée le
AWS Cloud
Collibra
Data governance
9 mois
450-500 €
Roissy-en-France, Île-de-France
Nous recherchons pour le compte de notre client grand-compte dans le domaine automobile, un Technical Leader Data ayant un Rôle hybride : Technical Lead assorti de compétences chef de projet & Business Analyst. Contexte : Assurer la responsabilité technique, fonctionnelle et opérationnelle du Datalake AWS et de l’écosystème BI du groupe. Piloter une équipe de développement internationale et garantir l’ingestion, la transformation, la qualité, la gouvernance et la mise à disposition fiable des données pour les équipes et systèmes consommateurs Missions : Pilotage technique du datalake AWS Supervision complète de la plateforme data AWS Coordination et encadrement d’une équipe de 5 développeurs basée en Inde Conception et adaptation des architectures AWS selon les standards du groupe Implémentation et optimisation des services AWS : ➢ S3 ➢ Glue ➢ Kinesis ➢ Lambda ➢ EventBridge ➢ CloudWatch Suivi du fonctionnement, des performances et de la robustesse des pipelines Mise en place de mécanismes d’alerting, supervision et automatisation Ingestion et transformation de données Analyse des systèmes sources internes et externes Définition du flux d’ingestion de bout en bout Orchestration des pipelines d’ingestion et de transformation Consolidation et structuration des datasets Mise à disposition des données transformées dans PostgreSQL pour les systèmes consommateurs Validation de l’intégrité, cohérence, performance et fraîcheur des données Gouvernance, qualité et bonnes pratiques Définition et application des guidelines du datalake Mise en place des standards de gouvernance de données Suivi et amélioration de la qualité des données Gestion des accès, sécurité, conformité et règles de partage Animation des pratiques data selon les meilleures normes du marché Supervision de l’usage de Collibra pour la gouvernance documentaire Management de projets et méthodologies Gestion de projets data à fort enjeu stratégique Pilotage de la migration du SI BI vers un nouvel environnement : ➢ Définition du scope ➢ Planification des jalons ➢ Suivi des coûts et ressources ➢ Coordination des acteurs ➢ Organisation du passage en production Application avancée des méthodologies Agile Animation des cérémonies et des instances de pilotage Rôle hybride : Technical Lead assorti de compétences chef de projet & Business Analyst BI, reporting & outils analytiques Gestion complète des plateformes BI du groupe : ➢ Tableau ➢ Power BI Définition et suivi des standards de développement BI Support fonctionnel et technique auprès des utilisateurs internes Orchestration des accès, bonnes pratiques et optimisation des dashboards Interaction avec les métiers pour la compréhension et formalisation des besoins Mise en disposition des data sets pour les solutions analytiques TMA, incidents et opérations Gestion du run du datalake et des outils BI Analyse, diagnostic et résolution des incidents Coordination avec les équipes TMA Optimisation continue des pipelines et dashboards Suivi des performances applicatives via New Relic Monitoring, FinOps & optimisation Mise en place de dashboards FinOps dédiés Suivi en continu de la consommation et des coûts AWS Analyse détaillée des optimisations possibles Recommandations régulières pour réduire les coûts et renforcer l’efficacité Automatisation de contrôles de performance et logs
Offre premium
Offre d'emploi
Data Engineer DBT senior
PRIMO CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD
1 an
40k-60k €
400-520 €
Paris, France
Pour l'un de nos grands comptes, nous recherchons un Data Engineer pour travailler dans une équipe composée de 1 Product Owner et de 2 Data Engineer : Participer aux phases de conception, de planification et de réalisation des tâches Construire et maintenir des pipelines Data robustes et scalables Produire des modèles DBT pour la transformation sur un environnement GCP (Bigquery) Expérience en méthodologie Agile (scrum ou kanban) Maîtriser la Stack technique : DBT, Python, SQL, GCP, Bigquery, Terraform, Airflow, Ci/cd.
Mission freelance
Responsable / Chef de Projet Gouvernance Data
ALLEGIS GROUP
Publiée le
Data governance
3 ans
400-570 €
Niort, Nouvelle-Aquitaine
Responsabilités 1. Gouvernance & Stratégie Construire, formaliser et déployer le cadre de gouvernance Data : normes, qualité, sécurité, rôles, catalogues, bonnes pratiques. Définir et animer les trajectoires Data (organisationnelles, techniques, qualité). Contribuer à la structuration des besoins Data pour l’ensemble des projets du périmètre (≈ 16 collaborateurs / 30 projets). Assurer la cohérence globale des initiatives Data en lien avec les équipes métiers et techniques. 2. Pilotage Data Suivre l’avancement des actions Data, dont les jalons clés (ex. J+15). Instaurer un pilotage robuste : reporting régulier, gestion des risques, consolidation des indicateurs. Participer au développement de la culture Data au sein de l’organisation. 3. Gestion de Projet Recueillir, structurer et prioriser les demandes Data . Coordonner les parties prenantes internes et externes (prestataires, métiers, IT). Garantir la qualité , la cohérence et la complétude des livrables Data (modèles, règles, dictionnaires, contrôles…). 4. Management Fonctionnel Animer la communauté Data et participer à la structuration des rôles (Data Owners, Data Stewards…). Superviser le périmètre opérationnel (~16 personnes). Intervenir à la fois sur le stratégique (vision, trajectoires) et l’ opérationnel (suivi, arbitrages, priorisation).
Offre d'emploi
Consultant IGA / SailPoint – Gouvernance & Comptes à privilèges
RIDCHA DATA
Publiée le
IAM
Product Information Management (PIM)
sailpoint
1 an
Île-de-France, France
🎯 Contexte Dans le cadre de l’évolution de la solution de gouvernance des identités (IGA) , la mission vise à enrichir le dispositif existant afin de : Renforcer les campagnes de re-certification des droits d’accès Mettre en place une solution de Privileged Identity Management (PIM) Optimiser la synchronisation entre instances SailPoint La prestation est organisée en 2 lots . 🛠️ Missions principales🔹 Lot 1 – Gouvernance & Architecture IGA Mise en place de campagnes de re-certification des droits d’accès pour applications sensibles (classification A/B) Étude, comparaison et choix d’une solution PIM Conception et implémentation de la solution PIM Mise en place du connecteur SCIM SailPoint IdentityIQ (IIQ) pour synchronisation inter-instances Mise à jour de la documentation d’architecture IAG 🔹 Lot 2 (optionnel) – Conduite du changement Définition du plan de conduite du changement (communication, procédures, webinars) Accompagnement des administrateurs d’applications (ADA) Déploiement des campagnes de re-certification 📦 Livrables attendus Mise à jour du document de conception IAG Document de comparaison & choix solution PIM Document de conception & implémentation PIM Plan de communication relatif aux campagnes de re-certification Comptes rendus d’avancement en mode Agile ⚙️ Compétences techniques Impératif : Expertise IGA (Identity Governance & Administration) SailPoint IdentityIQ 8.4+ Mise en œuvre de solution PIM Gouvernance des comptes à privilèges Important : SCIM Architecture IAM Connaissance des environnements sensibles / données classifiées
Offre d'emploi
Consultant IAM / Zero Trust – Audit & Rationalisation Okta
RIDCHA DATA
Publiée le
IAM
MFA
okta
1 an
Île-de-France, France
🎯 Contexte Dans le cadre d’une stratégie Zero Trust à grande échelle (BYOD / BYOL et remplacement du VPN), la mission consiste à faire évoluer et rationaliser l’architecture d’authentification ainsi que les processus de gestion des identités. La prestation est structurée en 2 lots : Lot 1 : Études & rationalisation architecture IAM Lot 2 (optionnel) : Continuité de service & bascule IDP 🛠️ Missions principales🔹 Lot 1 – Études & optimisation Rationalisation de l’architecture d’authentification (Okta / Zscaler ZIA & ZPA) Étude du provisioning utilisateurs (SCIM ou autre mécanisme) Simplification des règles d’éligibilité aux solutions d’accès sécurisé Industrialisation et déploiement de FastPass sur postes Windows & MacOS Intégration d’applications filiales dans l’écosystème Okta Participation aux rituels Agile 🔹 Lot 2 – Continuité & sécurisation Définition d’une procédure de bascule vers un autre IDP en cas d’indisponibilité prolongée Documentation des scénarios de continuité d’activité 📦 Livrables attendus Mise à jour du document de conception de la politique Zero Trust Plan de communication pour le déploiement global d’Okta Verify Documentation des changements de configuration Okta & écosystème Procédure de bascule IDP (PRA / continuité de service) Comptes rendus d’avancement réguliers ⚙️ Compétences techniques Impératif : Expertise IAM (Identity & Access Management) MFA & solutions d’authentification Okta (architecture, provisioning, intégration applicative) Protocoles SAML, OAuth2, OpenID Connect Important : Zscaler (ZIA / ZPA) SCIM Gouvernance des identités (IGA) Environnements Zero Trust
Offre d'emploi
Data Engineer (H/F)
Link Consulting
Publiée le
Big Data
Python
SQL
38k-40k €
Castelnaudary, Occitanie
Notre client, acteur majeur du secteur de la grande distribution, recherche son futur Data Engineer (H/F) pour son site basé dans l'Aude, à 45 minutes de Toulouse, dans le cadre du développement et de l’évolution de ses outils de pilotage. ### Vos missions Intégré à l’équipe informatique du client, vous devrez : * Centraliser et fiabiliser les données issues des outils métiers (logistique, commerce, marketing, qualité, finance). * Concevoir et déployer des architectures robustes pour collecter, structurer et exploiter des volumes importants de données. * Développer, automatiser et optimiser les flux et traitements de données, notamment depuis l’environnement SAP BusinessObjects via l’ETL BODS. * Garantir la performance, la disponibilité et la pérennité des infrastructures data. * Collaborer étroitement avec les équipes métiers et les Data Analysts afin de fournir des données fiables et exploitables pour la prise de décision. Les compétences techniques * Maîtrise des langages : Python, C/C++, Java, Perl. * Solide expérience des environnements UNIX, Linux, Solaris. * Bonne connaissance des bases de données et du SQL. * Compréhension globale des enjeux Big Data. * Atouts complémentaires : Access, VBA, Google Cloud Platform (GCP).
Mission freelance
PO DATA - Expérience data clinique / santé impératif
Net technologie
Publiée le
Data governance
Data quality
1 an
France
Nous recherchons un consultant PO expérimenté sur des données cliniques en environnement international (fluent english). Vos missions : Intervenir sur des initiatives liées aux données opérationnelles cliniques en faisant le lien entre les équipes métiers, cliniques et data engineering. ❇️ Recueillir et formaliser les besoins métiers autour des données cliniques ❇️ Traduire les exigences fonctionnelles en spécifications data exploitables ❇️ Contribuer à la qualité, gouvernance et traçabilité des données ❇️ Animer des ateliers et coordonner les parties prenantes ❇️ Travailler en environnement Agile (Jira, Confluence)
Mission freelance
Business Analysts expérimentés sur Workday
Codezys
Publiée le
Business Analysis
Data management
Formation
12 mois
Paris, France
Contexte du projet : Dans le cadre du déploiement international de Workday, SAUR met en œuvre un programme de transformation de son SIRH couvrant environ 20 pays et 12 000 collaborateurs. Ce projet vise à harmoniser, sécuriser et optimiser les processus RH à l’échelle mondiale. Besoins en renfort : Renforcer l’équipe centrale SIRH en intégrant deux Business Analysts expérimentés sur Workday, capables d’intervenir sur les aspects fonctionnels, la configuration et la coordination avec les équipes RH locales. Assurer une assistance opérationnelle auprès de plusieurs filiales pour accompagner l’appropriation de Workday, garantir la qualité des données et des processus RH, et faire le lien entre les besoins métiers locaux et l’équipe centrale. Contexte organisationnel : L’équipe centrale SIRH se compose actuellement de trois personnes intervenant partiellement sur le sujet, ainsi que d’un lead change dédié à la communication. L’ajout de ces consultants est nécessaire pour accompagner efficacement le déploiement dans un contexte sensible et international. Objectifs et livrables : Coordination avec les équipes RH locales : identifier les rôles et responsabilités, comprendre les processus spécifiques à chaque pays, accompagner l’adoption de Workday, et soutenir la gestion des tickets pour assurer un support structuré et harmonisé. Support fonctionnel et optimisation : analyser les problématiques rencontrées, proposer des améliorations métier, et contribuer à la configuration des modules Workday, notamment sur le Core RH et les instances adaptées aux besoins locaux. Gestion de la qualité des données : vérifier, améliorer la cohérence et la fiabilité des informations RH intégrées dans Workday. Formation et accompagnement : former les équipes locales, identifier les points de blocage, et proposer des plans d’action pour faciliter l’utilisation de la plateforme, tout en diffusant efficacement les communications liées au programme.
Offre d'emploi
Data Engineer Big Data
Signe +
Publiée le
24 mois
45k-50k €
322-500 €
Saint-Denis, Île-de-France
Contexte: Nous recherchons un Data Engineer Expérimenté/Senior spécialisé en environnement Big Data OnPremise pour une mission dans le cadre de l'exploitation, du maintien en conditions opérationnelles et des évolutions du Data Lake OnPremise (DataStore). Le collaborateur s'intégrera dans une équipe de 14 développeurs et contribuera également aux travaux liés à la migration progressive du Data Lake vers GCP. Missions : Exploitation et maintenance des traitements Big Data : supervision, intégration des données, contrôle qualité. Développements et évolutions sur les pipelines existants (Spark, Kafka, NIFI). Optimisation des performances et maintien des services DataStore. Gestion des incidents niveau 3 : diagnostic, correction, suivi JIRA/ITZMI. Participation aux évolutions applicatives, aux travaux transverses et aux actions préparatoires à la migration Cloud. Profil : Data Engineer Tech Lead Compétences techniques requises : Spark Kafka NIFI HDFS HBase Airflow Python SQL Technologies complémentaires : Java Scala BigQuery
Offre d'emploi
Développeur Typescript
VISIAN
Publiée le
Big Data
TypeScript
User acceptance testing (UAT)
1 an
Paris, France
Contexte de la mission Dans le cadre du renforcement de ses dispositifs de Conformité, un de nos client recherche un Développeur TypeScript pour intervenir sur des applications construites au sein d'un écosystème de plateforme de données. La mission s'inscrit dans un environnement à forte criticité métier, notamment autour de la Détection de la Délinquance Financière, avec des enjeux liés à l'exploitation de la donnée, à la restitution d'informations sensibles et à l'amélioration des outils utilisés par les équipes conformité, contrôle et investigation. Le consultant participera au développement de solutions applicatives et de widgets métiers permettant de faciliter l'analyse, le pilotage et la visualisation de données en lien avec les dispositifs de surveillance et de détection.
Offre d'emploi
Data Scientist Generative IA (4jrs TT) sur 92
EterniTech
Publiée le
Data science
IA Générative
Pytorch
3 mois
Hauts-de-Seine, France
Je recherche pour un de mes clients un Data Scientist Generative IA avec 4 jours TT sur 92 VOTRE MISSION** * Concevoir et industrialiser des solutions d’IA Générative (LLMs, Agents, RAG) répondant aux besoins des AI Catalysts, priorisés par le PO. * Intégrer les composants GenAI à l’écosystème existant (GenAI Core, OneAPI, Azure AI Foundry), tout en respectant les normes de sécurité et de coûts. * Définir et implémenter les architectures techniques : choix de modèles, orchestration d’agents, conception RAG, gestion des sessions. * Développer et maintenir le code (principalement Python) et les briques réutilisables (librairies de prompts, agents). * Industrialiser le déploiement : conteneurisation (Docker), Kubernetes, CI/CD, Infrastructure as Code (Terraform), et monitoring. * Mettre en œuvre des pratiques MLOps : suivi des expériences, versioning de modèles, tests de régression, validations en pré-prod. * Assurer la qualité et l’observabilité : métriques de performance, tests adversariaux, suivi des dégradations en production. * Collaborer avec le PO, le Software Engineer, les AI Catalysts et la DSI pour garantir la sécurité et l’adoption des solutions. * Contribuer à la documentation, aux templates et à la formation des équipes internes. *VOTRE PROFIL * Bac +3 à Bac +5 en informatique, data science ou équivalent. * 3 à 5 ans d’expérience en développement d’applications utilisant l’IA, avec un accent sur l’IA Générative (Agents, RAG, LLMs). * Maîtrise de Python et des bibliothèques ML/IA (PyTorch, Transformers). * Connaissances des frameworks GenAI : LangChain, LangGraph, LangFuse, et des moteurs de recherche sémantique (Qdrant, Milvus). * Compétences en architecture cloud Azure (AI Foundry, AKS, WebApp) et en conteneurisation/orchestration (Docker, Kubernetes). * Familiarité avec CI/CD et Infrastructure as Code (Terraform). * Sensibilité aux enjeux de cybersécurité et de conformité. * Rigueur dans l’ingénierie logicielle : tests, documentation et automatisation des pipelines. * Capacité à travailler en équipe et à vulgariser les concepts techniques. * Anglais professionnel (lu/écrit) ; français courant indispensable. Définition du profil DATA SCIENTIST: - En charge du développement d'algorithmes (Machine Learning et Intelligence Artificielle) pour créer de la valeur métier à partir de données (structurées, non structurées, vidéos, images, etc.). - Doit comprendre les demandes de l'entreprise et les challenger pour fournir la meilleure réponse possible. - Apporte un support à la décision sur d'éventuelles innovations, l'amélioration des performances et décisions relatives au service client. - Industrialise les projets de Data Science avec les Data Engineers. - Maintient et documente les algorithmes industrialisés (selon les rôles et les responsabilités définis par le projet).
Offre d'emploi
Consultant Fonctionnel – Reprise de Données / SQL H/F
HAYS France
Publiée le
Data analysis
Data management
Data quality
1 an
40k-52k €
330-440 €
Bouches-du-Rhône, France
Nous recherchons un consultant fonctionnel spécialisé dans la reprise de données dans le cadre de projets ERP. Vous interviendrez sur l’analyse, l’extraction, la transformation et l’intégration des données de gestion et données comptables. Missions Analyser les besoins fonctionnels liés à la reprise de données. Préparer, traiter et intégrer les données dans un ERP : Commandes Factures Écritures ou données comptables Maîtriser les requêtes et manipulations SQL pour extraction, transformation et contrôle qualité. Assurer la fiabilité, la cohérence et la conformité des données reprises. Collaborer avec les équipes métier, fonctionnelles et techniques. Contribuer à la documentation et aux étapes de validation.
Mission freelance
Data Manager / Data Steward
Codezys
Publiée le
Data management
Data quality
Lean
12 mois
Rennes, Bretagne
Nous recherchons un profil capable de renforcer notre équipe de Data Management afin de soutenir la réalisation de nos engagements concernant nos offres de services dans ce domaine. Cette personne accompagnera également nos parties prenantes métier dans leurs projets liés à la gestion des données. ENJEUX La mission vise à garantir le succès des initiatives métier portant sur le catalogage des données et leur nettoyage, en particulier lors de projets de transformation majeurs. OBJECTIFS Contribuer à l’enrichissement et au renforcement de notre offre de services en Data Management (méthodologies, outils, formations, accompagnement au changement…) Faciliter la collaboration entre les équipes (Data, IT, architecture, métier) autour de la gestion des données (catalogage, qualité, documentation, sécurité, modélisation…) Professionnaliser et accompagner la montée en compétences des Data Owners, Data Stewards et Data Custodians concernant leurs rôles liés à la qualité des données Participer à l’amélioration de la culture Data au sein de l’organisation Le périmètre technique englobe : Data Gouvernance Data Management Data Quality DAMAS Méthodologies Lean et Agile Outil Blueway MyData Catalogue Tout le système d’information, incluant SIO et legacy Intelligence artificielle Objectifs et livrables Les prestations attendues, non exhaustives, comprennent : Cataloguage de données : réalisation de projets de documentation métier et technique, intégration dans l’outil My Data Catalog Data Quality Management : audits de qualité, propositions de plans de remédiation Accompagnement au changement, formation et sensibilisation Data : formation à l’utilisation de My Data Catalog, accompagnement individuel ou collectif (1 à 1, ateliers) Communication : création et diffusion de newsletters, publications sur l’intranet Participation à des réunions de communauté : Data Owners, Data Stewards, Data Custodians Les livrables attendus comprennent : Les catalogues de données dans l’outil My Data Catalog Les résultats des audits de qualité des données Supports de formation sur les outils et méthodologies de Data Management Newsletter ou autres publications destinées à la communication interne
Mission freelance
Consultant Data & Reporting - Cash Management
NOVAMINDS
Publiée le
Business Analyst
Data management
4 mois
550-650 €
Paris, France
Objectif de la mission · Collecter, produire et valider les données requises afin de réaliser l’ensemble du reporting interne. · Assurer une gestion centralisée de la disponibilité et de la fiabilité des données, dans les délais, pour permettre la livraison du reporting. Prestations demandées · Coordonner avec différentes équipes de reporting et autres parties prenantes (IT, métiers) afin d’intégrer les exigences réglementaires dans le reporting. · Revoir les processus de reporting existants, identifier des opportunités d’amélioration de l’organisation opérationnelle et mettre en œuvre les changements. · Partager et former les équipes de production de reporting aux nouvelles solutions de reporting conçues. · Revoir et piloter le reporting des KPI, garantir les niveaux de service/qualité, et reporter aux parties prenantes via différents comités. · Interagir avec différentes équipes.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1743 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois