Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 690 résultats.
Freelance
CDI

Offre d'emploi
Directeur de programme IT

VISIAN
Publiée le
API
Big Data

1 an
Île-de-France, France
Missions 2.1. Pilotage & gouvernance Assurer le pilotage IT du programme OFS, en coordination étroite avec la direction de programme Finance Structurer et animer les instances de gouvernance : planning, risques, arbitrages, décisions, points transverses Être le point d’entrée IT unique pour les sponsors, avec une posture solide, affirmée et crédible 2.2. Structuration du cadrage Monter rapidement sur le cadrage déjà lancé et co-construire Produire un backlog IT multi-domaines solide et aligné sur les priorités Finance 2.3. Coordination transverse Organiser et synchroniser les contributions des équipes : Safir, Architecture, Data, Risk, intégration, externe/partners Garantir la bonne articulation entre les backlogs des squads, les études de cadrage et les autres travaux du programme Identifier et résoudre les points de friction (capacités, périmètre, dépendances techniques ou organisationnelles) 2.4. Gestion des risques Identifier les risques stratégiques : exemple architecture, données, dépendances, planning, disponibilité des équipes Construire un plan d’actions robuste et assurer le suivi des arbitrages avec les sponsors 2.5. Communication & alignement Fournir un reporting exécutif clair pour : CODIR DSI, Finance, Groupe, sponsors Créer un environnement de travail fluide, aligné, transparent — tout en conservant la fermeté nécessaire au cadrage Compétences et profil attendu 3.1. Expérience indispensable Expérience avérée de direction de grands programmes stratégiques (gros projets de transfo Finance et/ou convergence vers plateformes groupe) ; idéalement à forte exposition Groupe/COMEX Expérience solide en pilotage dans une organisation agile @scale, incluant : multi-squads multi-backlogs synchronisation QAP interaction avec les rôles agiles (PO, SM, RTE, Tribe Lead) Capacité démontrée à opérer dans un environnement hybride : cadrage stratégique + delivery agile
CDI

Offre d'emploi
Data Scientist H/F

█ █ █ █ █ █ █
Publiée le
Ocaml

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Scientist F/H

█ █ █ █ █ █ █
Publiée le

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data Engineer - Migration Data Lake

VISIAN
Publiée le
Data Engineering
Migration

1 an
Paris, France
Contexte Le Cluster lance l'étude d'un potentiel nouveau Data Lake afin de remplacer l’infrastructure legacy par une plateforme moderne, scalable et pleinement gouvernée. Le nouveau lake s’appuiera sur une architecture Medallion et intégrera les technologies suivantes : TrinoDB, Apache Iceberg, Parquet, dbt, Argo Workflows, Apache Superset, Metabase et OpenMetadata . Missions Analyse de l’existant & migration Cartographier les sources, pipelines et jeux de données actuels (legacy, SQL, fichiers plats...). Définition de la stratégie de migration vers le nouveau lake (bronze -> silver -> gold). Conception des plans de bascule tout en minimisant les interruptions de service. Architecture & ingestion Conception des couches Bronze / Silver / Gold du nouveau Data Lake avec TrinoDB, Apache Iceberg et Parquet. Création de pipelines d’ingestion (batch & near-real-time) depuis les systèmes de crédit. Modélisation & transformation Développement des modèles de transformation dans dbt : scripts SQL, tests automatisés, documentation et versionning. Harmonisation des schémas (normes de nommage, typage, PK/UK) avec les exigences du domaine crédit. Orchestration Implémentation des workflows de migration et de rafraîchissement des données avec Argo Workflows (planification, gestion des dépendances, monitoring). Self-service & visualisation Déploiement des espaces de travail Apache Superset et Metabase pour que les analystes métier puissent créer leurs propres dashboards à partir du nouveau lake. Rédaction des guides d’utilisation et accompagnement de la montée en compétence des équipes. Gouvernance, catalogue & lineage Intégration OpenMetadata pour le catalogage automatique, le suivi du lineage et la gestion des métadonnées (description, propriétaire, sensibilité). Mise en place des processus de data ownership, de versionning et de validation. Qualité & validation Implémentation, dans les modèles dbt, des tests de qualité (not-null, unicité, règles métiers spécifiques au crédit). Mise en place des indicateurs de suivi (freshness, complétude, anomalies) et des alertes automatiques. Sécurité & conformité Application des standards de sécurité du groupe (RBAC, data-masking). Contribution aux audits internes et aux revues de conformité réglementaire. Collaboration inter-équipes Travail en étroite coordination avec les équipes métiers. Participation aux cérémonies projets et aux ateliers de design.
Freelance
CDI

Offre d'emploi
Analyste DLP - H/F

AMD Blue
Publiée le
Big Data
Cybersécurité
Data analysis

3 ans
43k-45k €
360-410 €
Île-de-France, France
Qui sommes-nous ? Chez AMD Blue, l'innovation est notre passion, et nous sommes fiers de présenter Blue Cyber. Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Cyber . Contexte de la mission : Notre client recherche un(e) Analyste DLP pour accompagner l'équipe dans la sécurisation des données, la réalisation d'analyses opérationnelles et l'optimisation des systèmes de surveillance. Descriptif de la mission : Les missions sont : Évaluation et analyse des événements générés par le contrôle DLP (niveau 1) selon des critères prédéfinis. Révision quotidienne des événements et escalade vers les niveaux 2 pour analyse complémentaire. Identification des points faibles du système de surveillance via l'analyse des problèmes de sécurité. Communication avec le responsable du contrôle sur la détection et la revue des règles spécifiques. Proposition de bonnes pratiques et de solutions de classification pour optimiser la détection. Réalisation du suivi hebdomadaire de l'activité et de la performance. Participation à des projets de sécurité transverses. Réalisation des premières investigations en niveau 2 pour confirmer et évaluer les fuites de données. Participation à la sensibilisation des collaborateurs aux bonnes pratiques de sécurité.
Alternance
CDI

Offre d'emploi
Alternance - Ingénieur Data & Process Improvement Analyst - /D F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel

69001, Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Data Governance Manager – Stewardship & Adoption sur Bordeaux

EterniTech
Publiée le
Data governance
Data management
Microsoft Power BI

3 mois
Bordeaux, Nouvelle-Aquitaine
Je cherche pour un de mes client un Data Governance Manager – Stewardship & Adoption sur Bordeaux Expérience : mini 5 ans en Data Gouvernance Localisation : Bordeaux Démarrage asap pour 5 mois contexte de la mission et l’équipe Chez mon client, le besoin s’inscrit dans le développement de la gouvernance data, dans un environnement structuré autour de Snowflake, Power BI et Datahub. La mission se déroule au sein de l’équipe Data Management composée de 4 Data Managers, qui outillent la gouvernance Data des entités du groupe et participent aux projets métiers en collaboration avec les Data Engineers et notre communauté de Data Owner. Enjeux du projet / périmètre La mission vise à structurer, déployer et animer la gouvernance opérationnelle autour d’une communauté de Data Stewards à créer, à renforcer l’adoption des outils et pratiques de gouvernance, et à rapprocher l’équipe Data Management des utilisateurs afin de mieux prioriser les besoins métiers et data. Le poste n’a pas vocation à être un rôle de Data Steward central ; il s’agit d’un rôle transverse, orienté cadre, adoption, animation de communauté et accompagnement du changement. Activités principales • Déployer et animer le modèle de Data Stewardship : clarification des rôles, périmètres, interactions et rituels entre Data Owners, Data Stewards, Data Management et équipes techniques. • Structurer l’onboarding des Data Stewards et produire les kits, standards et supports utiles. • Lancer et animer la future communauté de Data Stewards. • Renforcer l’adoption du Data Catalog et des pratiques de gouvernance. • Accélérer la documentation des assets prioritaires • Intégrer davantage la gouvernance dans les workflows projets. • Contribuer à l’extension de la couverture du catalogue, notamment sur les traitements IA. • Organiser des ateliers et temps d’échange avec les utilisateurs. • Faire émerger les irritants et besoins, structurer un backlog transverse et contribuer à sa priorisation avec les équipes concernées. • Contribuer à une gouvernance by design sur les projets data, dès les phases de cadrage. Activités secondaires • Réactiver et mobiliser les communautés existantes, en particulier les référents Power BI. • Animer des campagnes ciblées et des rituels simples mais réguliers autour des usages de gouvernance. • Accompagner l’appropriation des rôles de Data Steward par certaines communautés existantes. Contexte technique et organisationnel Environnement data structuré autour de 4 plateformes Snowflake, une par entité du groupe, Power BI et Datahub. Mission portée par l’équipe Data Management, en interaction avec des Product Managers, Data Analysts, Data Scientists, Data Engineers, équipes plateforme et sponsors métier. Utilisation framework scrumban Soft skills souhaitées • Forte capacité d’animation de communauté • Facilitation • Conduite du changement • Capacité à faire avancer un sujet transverse sans autorité hiérarchique • Approche structurée, pragmatique, orientée impact et adoption • Capacité à dialoguer avec des interlocuteurs variés Critères de sélection Les éléments différenciants pouvant être mis en avant dans la candidature, d’après ton draft, sont : • expérience concrète de déploiement de modèles de gouvernance, de rôles ou de réseaux de référents • capacité à structurer et animer une communauté de Data Stewards • capacité à embarquer des parties prenantes variées et à conduire le changement • bonne compréhension des enjeux de Data Catalog, métadonnées, documentation, ownership, accès et usages • capacité à faire émerger les besoins utilisateurs et à contribuer à leur priorisation • approche pragmatique et orientée adoption / impact Expérience minimale requise Profil disposant d’une expérience solide en Data Governance, Data Management, Data Transformation ou Data Program Management. Outils de collaboration attendus Teams, Jira, Confluence, Datahub TT les mercredis et vendredis (Possibilité de venir sur site si volonté). Détail des compétences techniques Connaissance de Power BI : junior (<2 ans) Snowflake : junior (<2 ans d'exp) Data Governance : expert (>5 ans d'exp) Data Stewardship Operating Model : confirmé (2 à 5 ans d'exp) Data Catalog / Metadata Management : confirmé (2 à 5 ans d'exp) Conduite du changement / adoption : expert (>5ans) Animation de communauté / réseau de référents : confirmé (2 à 5 ans d'exp) Datahub ou autre Data Catalog : junior (< 2 ans) Gestion backlog transverse / priorisation : confirmé (2 à 5 ans d'exp)
CDI

Offre d'emploi
Data Scientist H/F

█ █ █ █ █ █ █
Publiée le

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Expertise en sécurité des données / Data Protection(H/F)

Freelance.com
Publiée le
Cybersécurité

3 ans
100-500 €
Toulouse, Occitanie
🔐 Contexte & Objectifs Au sein d’une direction sécurité, vous intervenez sur des projets stratégiques liés à la protection des données sensibles et à la sécurisation des environnements collaboratifs . Vous évoluez dans un contexte international avec une collaboration étroite avec des équipes basées à Porto. ⸻ 🎯 Vos missions Pilotage des projets de protection des données Analyse de sécurité et gestion du RUN Déploiement et exploitation de solutions DSPM (Varonis) Sécurisation des environnements Microsoft 365 Gestion des accès et campagnes de revue Suivi des incidents et remédiation (N2/N3) Production de livrables sécurité (guides, standards) Mise en place de tableaux de bord et reporting Veille technologique sur les solutions de sécurité ⸻ 🛠️ Environnement technique Microsoft 365 / O365 Microsoft Purview Azure / Entra ID ADRMS / DKE Varonis SailPoint Splunk PowerShell / Power BI / Power Apps / Python
Freelance

Mission freelance
Expert en Migration de Données H/F

SPIE ICS
Publiée le
Data analysis
Data Engineering
Migration

3 mois
400-580 €
Hauts-de-Seine, France
Nous recherchons pour notre client basé dans les Hauts-de-Seine (92) un Consultant en Migration de Données qui pilotera l’ensemble du processus de migration, de la préparation à la mise en production, afin de garantir la qualité et la cohérence des données. Missions principales : Accompagner les équipes locales de la définition de la stratégie à la validation métier des données. Gérer les phases MOCK1, MOCK UAT et chargement en production. Analyser en première ligne les anomalies détectées. Soutenir les responsables applicatifs pour la propagation des données. Être garant de la méthodologie DTM, définir la stratégie de nettoyage des données et suivre les KPIs. Maintenir les modèles de migration, outils, rapports et la bibliothèque de connaissances. Arbitrer les écarts méthodologiques et gérer les demandes de déviation. Former et animer la communauté des experts en migration (DME).
Freelance
CDI
CDD

Offre d'emploi
DataOps & Administrateur Hadoop TJM MAX 580

Craftman data
Publiée le
Ansible
Apache Hive
Apache Spark

1 an
40k-45k €
400-580 €
Paris, France
Missions et responsabilités principales1. Déploiement et industrialisation des clusters Big Data Déploiement automatisé de clusters via des pipelines CI/CD Utilisation d’outils d’automatisation pour l’installation et la configuration des composants Adaptation des architectures selon les besoins projets (dimensionnement, sécurité, performance) Contribution à l’industrialisation des processus (CI/CD, Infrastructure as Code) Déploiement et configuration d’outils de gestion de plateforme Installation et configuration d’interfaces utilisateurs pour les environnements analytiques 2. Stack Big Data administrée Administration et intégration des composants suivants : Service d’annuaire : gestion des identités Service d’authentification : sécurisation des accès Système de fichiers distribué : gestion du stockage Framework de traitement distribué : gestion des ressources et exécution Outil de gestion des accès : politiques de sécurité Moteur de calcul distribué Moteur SQL pour l’accès aux données Base de données relationnelle associée aux services Service de coordination distribué Responsabilités associées : Installation, configuration et paramétrage avancé Gestion des dépendances inter-services Maintien de la cohérence des versions Optimisation des performances et de la stabilité 3. Provisionnement et préparation des environnements Provisionnement des machines virtuelles Préparation des prérequis systèmes (OS, stockage, réseau) Automatisation des installations via scripts et outils d’orchestration Gestion des environnements (développement, test, production) 4. Observabilité et supervision Mise en place et maintien de la supervision : Collecte des métriques Gestion et routage des alertes Centralisation et exploitation des logs Visualisation via tableaux de bord Définition et amélioration des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des plateformes Big Data Support technique aux équipes projets et utilisateurs Gestion des incidents et demandes d’évolution Montées de version et correctifs Suivi de la capacité (CPU, RAM, stockage) Documentation technique et mise à jour des procédures Rituels et interactions Participation aux rituels d’équipe Coordination avec : Équipes infrastructure et exploitation Équipes projets data / métiers Référents sécurité Accompagnement des équipes dans l’usage de la plateforme Environnement technique global CI/CD & DevOps : outils d’intégration et de déploiement continus, gestion de code, qualité Automatisation : outils d’orchestration et scripting Infrastructure : virtualisation, conteneurisation Big Data : écosystème de traitement distribué Observabilité : outils de monitoring, logs et visualisation Points de vigilance Forte interdépendance des composants de la plateforme Sensibilité aux problématiques de capacité et de performance Importance de l’anticipation via la supervision Respect strict des standards de sécurité et des procédures internes Coordination transverse nécessaire pour les déploiements et évolutions majeures Charge estimative Déploiement d’un cluster complet : variable selon dimensionnement et spécificités projet MCO : charge récurrente hebdomadaire Incidents critiques : charge ponctuelle selon criticité
Freelance

Mission freelance
Data Scientist - Banque (F/H)

CELAD
Publiée le

1 an
440-470 €
Corenc, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Grenoble - Corenc - Expérience de 5 ans minimum Et si vous pouviez travailler sur des projets Data / IA directement connectés aux enjeux métiers d’une grande banque ? Ici, pas de modèle qui reste en POC. Vous intervenez sur des cas d’usage réels, utilisés, et amenés à être industrialisés. Pourquoi nous recrutons ? L’activité Data / IA prend de l’ampleur côté client. L’enjeu aujourd’hui est clair : - accélérer l’appropriation de la Data et de l’IA par les métiers - transformer des cas d’usage en solutions concrètes et durables Vous arrivez donc dans une phase où tout se structure et se développe. Concrètement, votre quotidien : Après votre onboarding pour comprendre les enjeux bancaires et l’écosystème technique, vous allez : 1/ Construire des cas d’usage Data / IA Vous utiliserez Python et les frameworks ML/DL pour : - préparer et explorer les données - concevoir et entraîner des modèles - restituer les résultats de manière compréhensible pour les métiers 2/ Travailler avec les métiers Vous interviendrez directement avec eux pour : - cadrer les besoins - traduire des problématiques métiers en cas d’usage data - accompagner l’adoption des solutions 3/ Déployer des sujets IA générative Vous accompagnerez les équipes sur : - la création de prompts efficaces - le déploiement de LLM - la mise en place d’agents / assistants 4/ Structurer l’environnement Vous contribuerez à : - la mise en place de l’environnement technique (notamment GCP) - l’amélioration des pratiques projets Data / IA - l’industrialisation des cas d’usage 5/ Maintenir et faire évoluer les modèles Vous assurerez la MCO des solutions déployées : - suivi de performance - ajustements des modèles - amélioration continue 6/ Diffuser la culture Data / IA Vous animerez : - des ateliers d’acculturation - du coaching (notamment sur des POC étudiants)
CDI

Offre d'emploi
Data Scientist - Banque (F/H)

CELAD
Publiée le

40k-48k €
Corenc, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Grenoble - Corenc - Expérience de 5 ans minimum Et si vous pouviez travailler sur des projets Data / IA directement connectés aux enjeux métiers d’une grande banque ? Ici, pas de modèle qui reste en POC. Vous intervenez sur des cas d’usage réels, utilisés, et amenés à être industrialisés. Pourquoi nous recrutons ? L’activité Data / IA prend de l’ampleur côté client. L’enjeu aujourd’hui est clair : - accélérer l’appropriation de la Data et de l’IA par les métiers - transformer des cas d’usage en solutions concrètes et durables Vous arrivez donc dans une phase où tout se structure et se développe. Concrètement, votre quotidien : Après votre onboarding pour comprendre les enjeux bancaires et l’écosystème technique, vous allez : 1/ Construire des cas d’usage Data / IA Vous utiliserez Python et les frameworks ML/DL pour : - préparer et explorer les données - concevoir et entraîner des modèles - restituer les résultats de manière compréhensible pour les métiers 2/ Travailler avec les métiers Vous interviendrez directement avec eux pour : - cadrer les besoins - traduire des problématiques métiers en cas d’usage data - accompagner l’adoption des solutions 3/ Déployer des sujets IA générative Vous accompagnerez les équipes sur : - la création de prompts efficaces - le déploiement de LLM - la mise en place d’agents / assistants 4/ Structurer l’environnement Vous contribuerez à : - la mise en place de l’environnement technique (notamment GCP) - l’amélioration des pratiques projets Data / IA - l’industrialisation des cas d’usage 5/ Maintenir et faire évoluer les modèles Vous assurerez la MCO des solutions déployées : - suivi de performance - ajustements des modèles - amélioration continue 6/ Diffuser la culture Data / IA Vous animerez : - des ateliers d’acculturation - du coaching (notamment sur des POC étudiants)
CDI

Offre d'emploi
Data Scientist / AI Engineer (Agentique) (H/F)

█ █ █ █ █ █ █
Publiée le
Docker
Python
Pytorch

52 500 €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
: Assistant RSSI e-Commerce & Big-Data 500 e par jour

BI SOLUTIONS
Publiée le
Big Data
Cybersécurité

2 ans
400-500 €
Île-de-France, France
: Assistant RSSI e-Commerce & Big-Data 500 e par jour Assister le RSSI dans la gestion de la gouvernance, la sécurisation des processus, la sécurité des développements, et la sécurité des infrastructures liées au e-Commerce et à la data de Carrefour France, regroupant plusieurs métiers tel que Voyages, Spectacles, Cartes Cadeaux, eCommerce Retail et BigData; en apportant une expertise technique et en assurant un rôle de challenge auprès des équipes informatiques et métiers. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. ● Connaissances des contraintes, technologies et risques liés à un site e-Commerce et aux services aux clients ● Connaissances des contraintes, technologiques et risques liés aux développements d’application web et mobile à destination des clients, mais aussi des collaborateurs. ● Connaissances des best practices de développement et des référentiels associés (OWASP) ● Connaissances des contraintes et technologies spécifiques au Big Data et la gestion du cycle de vie de la donnée et des contraintes réglementaires liées à la gestion de données personnelles. ● Sensibilité à la fraude client ● Techniques d’attaques courantes ● Bonnes pratiques ANSSI ● Protocoles de communications couramment utilisés ● Méthode Ebios RM d'analyse de risques 500 e par j
CDI

Offre d'emploi
DATA SCIENTIST

GRLCI
Publiée le
Python

Boulogne-Billancourt, Île-de-France
Nous recherchons pour l'un de nos clients un Data Scientist avec plus de 2 ans d'expérience pour renforcer une équipe data. Vous aurez pour mission : Participer à l’amélioration continue du SI : Explorer des données et production d’analyses, Identifier et mettre en œuvre des indicateurs de suivi et des solutions d’amélioration, Réaliser des Proof of Concept de solution pour des problématiques métiers ou SI. o Analyse du problème, o Identification de solutions potentielles, o Réalisation des solutions, o Vérification que le POC répond à la problématique, o Le cas échéant, aide à l’industrialisation du POC, · Veille sur les domaines de recherche en informatique, · Aide et accompagnement des équipes MOE et MOA sur les méthodes, algorithmes, technologies utilisées dans les POC.
5690 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous