Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 277 résultats.
Freelance
CDI

Offre d'emploi
Data Scientist - Multimodal document intelligence

PARTENOR
Publiée le
Agent IA
Deep Learning
IA Générative

1 an
Puteaux, Île-de-France
Dans le cadre d'un renforcement de nos équipes, nous recherchons des Data scientistes sénior pour intervenir de la conception globale d’une plateforme multimodale de compréhension documentaire et d’extraction de données structurées, couvrant l’analyse de mise en page de PDF complexes / pages scannées, l’extraction sémantique, la reconstruction structurelle à la validation de la qualité et l’intégration métier. Vos missions seront : Concevoir et faire évoluer le pipeline d’analyse documentaire multimodale : modélisation de la mise en page/structure, extraction sémantique, alignement cross-modal et reconstruction structurelle Construire et optimiser les mécanismes de collaboration multi-agents : décomposition des tâches, orchestration parallèle/séquentielle, relecture par les pairs et amélioration itérative de la qualité Définir les stratégies de sélection/combinaison/orchestration des modèles (routage dynamique selon le type de document, la structure du contenu et les signaux de qualité) Planifier et exécuter la validation des modèles, l’adaptation au domaine, l’apprentissage continu, l’apprentissage actif et les boucles de rétroaction des données Mettre en place des métriques de bout en bout : précision d’extraction, cohérence structurelle, efficacité de la collaboration des agents, latence, stabilité et coûts
Freelance

Mission freelance
Chef de Projet - Data & IA (F/H)

CELAD
Publiée le

1 an
500-520 €
Corenc, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Corenc (Région Grenobloise) - Expérience de 5 ans minimum Vous souhaitez contribuer à des projets stratégiques à fort impact autour de la Data et de l’IA ? Dans le cadre du renforcement d’un Département Data & Décisionnel au sein d’un grand acteur du secteur bancaire, nous recherchons un.e Chef de Projet Data & IA expérimenté pour accompagner la montée en puissance des projets stratégiques autour de la Data et de l’Intelligence Artificielle Vous intégrerez un service Data Management & Intelligence Artificielle récemment structuré, au cœur de la transformation Data & IA de l’organisation Le poste est basé en région grenobloise, avec des déplacements ponctuels en région et en Île-de-France Voici un aperçu détaillé de vos missions : - Conduire des projets à composante technologique (Data Management, IA, LLM, assistants/agents IA), - Structurer et animer la comitologie projet, - Coordonner les parties prenantes métiers et techniques, - Piloter des chantiers de mise en qualité des données, - Accompagner la déclinaison opérationnelle de la gouvernance data, - Mettre en application les normes de gouvernance (qualité, unicité, sécurité, usage éthique), - Animer des ateliers métiers autour des contrôles et standards data, - Contribuer à la diffusion des principes de gouvernance groupe, - Concevoir et animer des ateliers / formations Data & IA, - Vulgariser des concepts complexes (IA, LLM, gouvernance data), - Fédérer les communautés métiers autour des sujets Data & IA.
CDI

Offre d'emploi
Data Engineer – GCP (H/F)

CELAD
Publiée le

45k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, dans le secteur bancaire. L’enjeu : structurer et industrialiser l’écosystème Data & ML sur Google Cloud Platform. Vous intervenez à la fois sur l’architecture, le build, le run et la structuration des bonnes pratiques. Industrialiser les pipelines data sur l’écosystème GCP Gérer les montées de version des services managés Garantir performance, capacité et fiabilité Développer des pipelines en Python Exploiter et optimiser BigQuery Mettre en place des pratiques CI/CD adaptées aux projets data Structurer l’industrialisation des modèles de Data Science Gestion des IAM, droits d’accès et conformité Sécurisation des environnements Encadrement des accès aux données de production anonymisées Suivi des incidents Amélioration continue des livrables Gestion des évolutions techniques avec les éditeurs
Freelance

Mission freelance
Architecte Data

Cherry Pick
Publiée le
AWS Cloud
Google Cloud Platform (GCP)

12 mois
Paris, France
MISSION Garant des directives architecturales : Assurer le respect des standards définis. Conception des solutions de données : Responsable du design technique des solutions data. Lien technologique externe : Assurer la coordination avec les équipes data extérieures. Animation technique : Fédérer et animer la communauté technique interne. IMPLICATION ET RATTACHEMENT Disponibilité : 100 % (Temps plein). Ligne hiérarchique : Lead Data Architect. Objectifs clés : Maintenir l'architecture du paysage Data. Garantir la valeur technologique des solutions. Assurer le suivi de la dette technique sur l'ensemble du périmètre Data. COMPÉTENCES REQUISES Expertise Technique Expérience : Au moins 5 ans d'expérience en architecture de données. Big Data : Maîtrise indispensable des environnements Big Data (EMR, Spark, etc.). Plateformes Cloud : Expérience impérative sur GCP (BigQuery) ou AWS (Redshift/Athena/S3). Design d'Architecture : Solide expérience dans la conception et la mise en œuvre de briques technologiques (Collecte, Stockage, Traitement, Visualisation). Certifications : Bonne connaissance des architectures Cloud, idéalement certifié sur un ou plusieurs environnements (GCP, Azure, AWS). DevOps : Maîtrise des processus et outils de développement modernes (Git, CI/CD, etc.). Atout : Une expérience sur l'approche Data Mesh est un vrai plus. Soft Skills (Savoir-être) Rigueur, proactivité et sens de l'organisation. Capacité de synthèse et aptitude à vulgariser des sujets complexes. Empathie et fortes capacités de coopération (profil "intégrateur"). Anglais : Courant (indispensable). RESPONSABILITÉS CLÉS Garant des directives architecturales Soutenir la stratégie de données définie par la Data Team. Piloter et porter la roadmap technique de la plateforme Data. Apporter son expertise pour aider les parties prenantes à suivre la stratégie Data globale. Évaluer et optimiser les architectures de données existantes. Concevoir et déployer les briques technologiques (Collecte, Stockage, Processing, Visualisation). Veiller au respect des principes d'architecture, de sécurité et de confidentialité des données établis au niveau du groupe. Suivre et soutenir la stratégie NFR (Exigences Non-Fonctionnelles) en lien avec les Tech Leads de chaque équipe produit. Documenter l'architecture de manière exhaustive. Garantir la cohérence technique transverse (domaines et régions). Animation de la communauté technique Faciliter et animer les ateliers (workshops) communautaires. Garantir la cohérence des choix internes avec les technologies du marché. Lien technologique avec les équipes externes Assurer une veille technologique constante sur le marché. Être propriétaire de la cartographie technologique. Fournir des benchmarks et des recommandations technologiques. Assurer le relais des politiques d'Architecture, Sécurité et Confidentialité du Groupe. Apporter une vision globale et contextuelle de l'écosystème de l'entreprise.
Freelance

Mission freelance
Consultant technico-fonctionnel CRM (H/F)

LeHibou
Publiée le
CRM
Microsoft Power
Salesforce

6 mois
450-550 €
Paris, France
Notre client dans le secteur Aérospatial et défense recherche un/une Consultant technico-fonctionnel CRM (H/F) Description de la mission : Notre client, acteur majeur du secteur aérospatial et défense, souhaite renforcer l’intégration et l’optimisation de ses outils métiers déjà en place. L’objectif est d’aligner les solutions existantes avec des processus métiers nouvellement définis, dans une logique de transformation globale visant à : Supprimer les ressaisies et tâches à faible valeur ajoutée Structurer et fiabiliser la gestion de la donnée Harmoniser les pratiques entre équipes Améliorer la performance opérationnelle La mission comportera une forte dimension transverse, à l’interface entre DSI et métiers (Commerce, Administration des Ventes, Supply Chain, etc.). Les outils concernés sont principalement : Pipedrive (outil central CRM) Microsoft Office 365 Microsoft Power Platform Odoo Environnement Salesforce Vos missions : Vous interviendrez sur l’ensemble du cycle projet : 1️⃣ Analyse & cadrage Recueillir et formaliser les besoins métiers Cartographier les processus existants Identifier les axes d’optimisation 2️⃣ Implémentation & paramétrage Paramétrer et faire évoluer les outils en cohérence avec les processus cibles Piloter les projets d’évolution Structurer les interconnexions entre les différents outils 3️⃣ Accompagnement & support Accompagner les utilisateurs dans la montée en compétence Mettre en place les bonnes pratiques d’utilisation Administrer et assurer le support des solutions déployées
Freelance
CDI

Offre d'emploi
Data Engineer GCP/PYTHON

UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-600 €
Paris, France
Bonjour 😀 Nous recherchons un(e) Data Engineer GCP pour l'un de nos clients ! Contexte de la mission : Au sein de la Direction Technologie, la Data Factory est en charge du pilotage, de la conception, du déploiement et de l’exploitation des solutions technologiques répondant aux cas d’usage data et aux besoins d’automatisation, à travers des plateformes modernes et performantes. La Data Factory joue également un rôle clé dans le développement des produits data et dans la diffusion des bonnes pratiques au sein des différentes Squads, afin de renforcer la culture data et l’excellence technique. Dans ce cadre, nous recherchons un(e) Data Engineer Confirmé(e) GCP/PYTHON 🎯 Missions principales Le/LA Data Engineer interviendra sur les périmètres suivants : 🔹 Déploiement & Industrialisation Déployer des datasets normés sur les data domains suivants : Utilisateurs, Comportements, Référentiels Concevoir, développer et maintenir des pipelines data robustes, scalables et performants Organiser et structurer le stockage des données Mettre en place des infrastructures évolutives adaptées à la croissance des volumes Construire et maintenir les workflows CI/CD 🔹 Qualité & Gouvernance Mettre en place des contrôles qualité sur les datasets Garantir la fiabilité, l’intégrité et la sécurité des données Participer aux initiatives de gouvernance (Dataplex, catalogage, traçabilité) Assurer la stabilité et la sécurité des environnements 🔹 Collaboration & Support Accompagner les utilisateurs dans l’exploitation et le requêtage des données Participer activement aux phases de conception, planification et réalisation Contribuer à la documentation technique Partager les bonnes pratiques au sein de l’équipe Data Participer aux instances Data Engineering 🔹 Amélioration continue Assurer une veille technologique active Contribuer à l’évolution des standards techniques
Freelance

Mission freelance
ALSL - Data Engineer (GCP) – Plateforme Data

Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
PySpark

3 mois
400-540 €
Paris, France
On cherche un(e) Data Engineer pour renforcer une équipe qui fait tourner la plateforme data au quotidien. Le sujet est très concret : ramener des données qui viennent de partout , les centraliser proprement , les rendre fiables , et garder une plateforme qui tient la charge (et qui ne casse pas en prod au premier pic). Vous travaillerez avec un Product Owner, un Data Steward et d’autres data engineers. On est sur une logique : ingestion, standardisation, stockage, et tout ce qui va avec côté run (monitoring, reprise, sécurité, doc). Vos missions : Collecter et centraliser des sources hétérogènes (API, fichiers, bases, événements). Construire des pipelines robustes : gestion des erreurs, reprises, backfills, alerting, qualité. Développer les traitements en Python / SQL / Spark (volumes en hausse, donc on fait attention à la perf et aux coûts). Orchestrer les flux avec Airflow . Structurer le stockage sur Cloud Storage avec une approche Delta Lake (évolution de schémas, merge/upsert, partitionnement, rétention). Industrialiser l’ensemble : Terraform / Terragrunt , GitLab CI/CD , environnements propres (dev/staging/prod). Contribuer à la gouvernance et à la conformité : catalogage et métadonnées via Dataplex + documentation utile (pas un wiki fantôme). Environnement technique : Python, SQL, Spark Airflow (orchestration) GCP : BigQuery, Dataproc, Pub/Sub, Cloud Storage Delta Lake Terraform + Terragrunt GitLab + GitLab CI/CD Méthodes : Agile (Scrum/Kanban)
Offre premium
CDI

Offre d'emploi
Account Manager Lyon

KOMEET TECHNOLOGIES
Publiée le
Commerce
CRM

Lyon, Auvergne-Rhône-Alpes
Vous êtes issu d’une formation supérieure (école de commerce ou d’ingénieurs) Minimum 5 ans de vente de prestation dans le secteur de la data et / ou 8 ans d’expérience minimum en vente de prestations de services IT intégration spécialisée. Vous savez participer à des projets complexes Forte capacité relationnelle, empathie et esprit de conquête. Orientation résultats et goût du challenge avec un esprit commercial conquérant. Motivation pour construire des relations clients durables et évoluer dans sa carrière. Votre esprit compétitif, votre sens business et votre convivialité contribueront à votre réussite dans le domaine spécialisé de la Data &l’IA. Vous intégrerez une équipe d'experts pour participer activement à cette aventure professionnelle enrichissante.
Freelance

Mission freelance
MLOps / Tech Lead Plateforme IA

Cherry Pick
Publiée le
CI/CD
Data governance
Data Lake

12 mois
550-610 €
Paris, France
Contexte et enjeux Notre client en assurance s’est engagé dans un projet stratégique majeur visant à accélérer et industrialiser le déploiement des cas d’usage de la Data Science et de l’Intelligence Artificielle (Machine Learning et LLM). Ce programme ambitieux repose sur la mise en œuvre de socles technologiques robustes, sécurisés et scalables : MLOps LLMOps Environnements Python industrialisés L’objectif est de fournir une plateforme mutualisée et standardisée permettant le développement, l’entraînement, le déploiement et le monitoring des modèles d’IA, utilisable par l’ensemble des équipes Data & IA du client. Dans ce cadre, notre client en assurance recherche un Consultant expert pour prendre en charge la gestion et l’animation de l’équipe dédiée à la plateforme MLOps . Ce rôle est stratégique pour la réussite du projet et la pérennisation des socles en mode RUN. Responsabilités principales 1. Management et animation de l’équipe MLOps Structurer et encadrer l’équipe MLOps (MLOps Engineers, Data Engineers, etc.) Définir les rôles et responsabilités Organiser et planifier les activités, répartir les charges et suivre l’avancement Mettre en place et animer les rituels agiles (daily stand-ups, sprint reviews, rétrospectives) Favoriser la montée en compétences et la diffusion des bonnes pratiques 2. Pilotage technique de la plateforme MLOps / LLMOps Définir l’architecture technique de la plateforme en collaboration avec les architectes et les équipes Data & IA Sélectionner et intégrer les outils et technologies MLOps / LLMOps pertinents Garantir la disponibilité, la scalabilité, la sécurité et la performance de la plateforme Assurer la conformité aux normes de sécurité, de gouvernance des données et de réglementation (RGPD) Définir, suivre et analyser les KPIs de la plateforme et des modèles déployés 3. Delivery du socle MLOps et des cas d’usage Garantir le déploiement des composants du socle MLOps industriel , en lien avec l’ensemble des parties prenantes DSI Organiser la réintégration des cas d’usage déjà en production dans le nouveau socle (compatibilité ascendante) Piloter le déploiement et la gestion opérationnelle de la plateforme MLOps, en autonomie et en coordination avec la DSI Accompagner l’industrialisation et la mise en production des cas d’usage IA 4. Roadmap, gouvernance et pilotage Définir et mettre en œuvre la roadmap MLOps / LLMOps , en adéquation avec les besoins des équipes Data & IA Piloter un portefeuille de projets techniques Gérer les budgets et l’allocation des ressources Animer les instances de pilotage (Comité Projet, Comité de Pilotage) S’appuyer sur les outils de suivi : SCIFORMA (planning et suivi budgétaire), JIRA (suivi des tâches) 5. Communication et coordination Interagir avec les équipes Data Scientists, Data Analysts, Architectes, Sécurité et Opérations Présenter l’avancement et les résultats aux parties prenantes internes (direction, métiers) Animer des ateliers de partage de connaissances et de bonnes pratiques Accompagner l’adoption de la plateforme par les équipes Data & IA Livrables attendus Organisation cible et plan de charge de l’équipe MLOps Roadmap détaillée de la plateforme MLOps / LLMOps Documentation technique et fonctionnelle Rapports d’activité et tableaux de bord de suivi Propositions d’architecture et de choix technologiques Processus et procédures MLOps / LLMOps formalisés Supports de formation et de sensibilisation
CDI

Offre d'emploi
Analyste data finance (F/H/X)

Talents Finance
Publiée le

35k-55k €
Paris, France
Vos missions : Préparation d’un plan de travail de correction des données Collecter et centraliser les données financières statiques, nécessaires à l’optimisation de l’ERP de l’entreprise Saisir, mettre à jour, vérifier la cohérence, contrôler la qualité des données Catégoriser et structurer les données pour faciliter leur analyse et exploitation stratégique Créer et mettre à jour des manuels de gestion de données Participer à la création d'un système d'analyse de la qualité des données Analyser des données simples existantes et rechercher des écarts de données Modéliser les bases de données financières et en assurer les mises à jour régulières, pour répondre aux besoins évolutifs Interagir directement avec les utilisateurs finaux, pour comprendre leurs besoins spécifiques et construire une relation de confiance Autres informations : Département : Technologie de l'information Type de contrat : Contrat à durée indéterminée (CDI), Temps plein Durée du contrat : indéterminée Date de début : dès que possible Horaire : 8H00-12H00 et de 12H50-16H50 du lundi au jeudi et 8H00-12H00 et de 12H50-15H50 le vendredi (soit un total de 39H par semaine) Localisation du poste : Nogent-sur-Seine, Aube (10), Grand Est, France - proche Romilly-sur-Seine (10), Troyes (10), Sézanne (51), Montereau-Fault-Yonne (77), Nangis (77), Provins (77) et Sens (89), 54 min direct de Paris en train Déplacement : à Nogent-sur-Seine Télétravail : non Poste ouvert aux personnes en situation de handicap
CDI

Offre d'emploi
Data Analyst (h/f)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel
SQL

Vélizy-Villacoublay, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Analyste data transport (F/H/X)

Talents Finance
Publiée le

35k-55k €
Paris, France
Vos missions : Préparer un plan de travail pour corriger et optimiser les données liées au transport, afin d’assurer leur fiabilité Collecter et centraliser les données notamment liées au transport, nécessaires à l’optimisation de l’ERP de l’entreprise Saisir, mettre à jour, vérifier la cohérence, contrôler la qualité des données Catégoriser et structurer les données pour faciliter leur analyse et exploitation stratégique Créer et mettre à jour des manuels de gestion de données Participer à la création d'un système d'analyse de la qualité des données notamment liées au transport Analyser des données simples existantes et rechercher des écarts de données Modéliser les bases de données et en assurer les mises à jour régulières, pour répondre aux besoins évolutifs Collaborer directement avec les utilisateurs finaux, pour comprendre leurs besoins spécifiques et construire une relation de confiance Autres informations : Département : Technologie de l'information Type de contrat : Contrat à durée indéterminée (CDI), Temps plein Durée du contrat : indéterminée Date de début : dès que possible Horaire : 8H00-12H00 et de 12H50-16H50 du lundi au jeudi et 8H00-12H00 et de 12H50-15H50 le vendredi (soit un total de 39H par semaine) Localisation du poste : Nogent-sur-Seine, Aube (10), Grand Est, France - proche Romilly-sur-Seine (10), Troyes (10), Sézanne (51), Montereau-Fault-Yonne (77), Nangis (77), Provins (77) et Sens (89), 54 min direct de Paris en train Déplacement : à Nogent-sur-Seine Télétravail : non Poste ouvert aux personnes en situation de handicap
CDI

Offre d'emploi
Data Engineer Flux H/F

VIVERIS
Publiée le

35k-45k €
Lille, Hauts-de-France
Contexte de la mission : Viveris pilote les chantiers de transformation métier et IT qui contribuent à la performance des entreprises bancaires. Dans ce cadre, nous recherchons notre Data Engineer qui contribuera à un programme important d'évolution de la plateforme Data. Vos missions et responsabilités : - Analyser les besoins métiers et les traduire en solutions BI pertinentes et durables ; - Modéliser les données en cohérence avec les objectifs fonctionnels et les bonnes pratiques décisionnelles ; - Créer et maintenir les flux de données via des outils ETL, en assurant leur qualité, robustesse et performance ; - Participer à la recette et au suivi de production des chaînes décisionnelles, en lien étroit avec les utilisateurs ; - Assurer un rôle transverse sur les projets décisionnels : échange avec les MOA, rédaction de spécifications fonctionnelles, accompagnement des utilisateurs.
CDI

Offre d'emploi
Chef de Projets Data H/F

JEMS
Publiée le

45k-60k €
Nantes, Pays de la Loire
Nous recherchons un Chef de Projets Data pour venir renforcer nos équipes Delivery. Vous serez responsable de la gestion complète des projets de déploiement de nos plateformes data chez nos clients, en garantissant le respect des délais, du budget et de la qualité des livrables. Nous attendons de vous des compétences fortes en Management et Leadership. Vous aurez la charge de : • Superviser l'ensemble du cycle de vie des projets en mode forfaitaire ou en mode dispositif à engagements, jusqu'au déploiement en production • Définir et formaliser les besoins clients en étroite collaboration avec les équipes techniques et les stakeholders • Chiffrer les différentes étapes du projet, identifier les compétences nécessaires, élaborer les plannings, définir le plan de charge (montée en charge des ressources nécessaires) • Assurer un suivi rigoureux des coûts, des délais et des risques, en identifiant et en gérant les éventuels écarts de périmètre • Initialiser et maintenir le plan d'assurance qualité à jour • Encadrer et animer les équipes projets, en motivant et en assurant un suivi efficace de la performance de l'équipe • Garantir la qualité des livrables en supervisant les tests, la validation des fonctionnalités et la conformité aux exigences spécifiées • Participer à l'amélioration continue des processus et méthodologies de gestion de projets (plan de progrès) • Préparer des rapports réguliers sur l'état d'avancement des projets et les résultats obtenus. Référence de l'offre : euu26du6yp
Freelance
CDI

Offre d'emploi
Proxy Product Owner Data – Transformation Finance Corporate F/H

SMARTPOINT
Publiée le
Dataiku
Finance
P2P

1 an
50k-76k €
500-680 €
Île-de-France, France
Dans le cadre d’un ambitieux programme de Transformation Finance , nous recherchons un(e) Proxy Product Owner Data pour accompagner la Corporate Finance au sein d’un environnement international. Rattaché(e) au Group Data Office , vous intervenez comme véritable pont stratégique entre les équipes Finance, IT et Data , afin de garantir la bonne intégration des enjeux data dans les projets de transformation. Les domaines couverts incluent : L’automatisation des processus Finance Le cycle P2P (Procure-to-Pay) Le cycle O2C (Order-to-Cash) L’amélioration continue des processus financiers Votre mission En tant que Proxy Product Owner Data, vous assurez que toutes les initiatives de transformation Finance comportant une dimension data : Sont correctement identifiées et priorisées Sont alignées avec les standards du Group Data Office Respectent les patterns d’architecture et la gouvernance groupe Sont délivrées efficacement et adoptées par les métiers Vos responsabilités Identification & priorisation des initiatives data Détecter les projets Finance à fort impact data Évaluer la valeur business et la faisabilité Alimenter et prioriser le backlog Data groupe Produire les analyses d’impact data Traduction des besoins métier Transformer les besoins Finance en exigences techniques et data Valider les modèles de données et les flux Garantir l’alignement avec l’architecture groupe Formaliser les spécifications fonctionnelles Expertise Processus Finance Apporter votre expertise sur les cycles P2P et O2C Accompagner les projets d’automatisation Cartographier les processus et définir les cas d’usage Formuler des recommandations d’amélioration Automatisation & Dataiku Contribuer aux cas d’usage d’automatisation via Dataiku (ou outil équivalent) Garantir l’intégration et la qualité des données Définir les besoins en pipelines data Coordination & delivery Coordonner les équipes Finance, IT et Data Suivre l’avancement des projets Identifier et lever les risques et dépendances Assurer un reporting régulier auprès des parties prenantes Gouvernance & standards Garantir la conformité aux standards Data groupe Assurer la qualité, la sécurité et la gouvernance des données Produire la documentation d’alignement
Freelance
CDI

Offre d'emploi
Data Ingénieur (32)

VISIAN
Publiée le
BigQuery
Google Cloud Platform (GCP)

1 an
Île-de-France, France
Data IngénieurPrestations attenduesPrestation de cette équipe Collecter et centraliser les différentes sources de données non homogènes Assurer la conformité et la sécurité des données Participer aux initiatives de gouvernance des données Prestation du data ingénieur En interaction avec les membres de l'équipe, la prestation consiste à : Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe Construire et maintenir de pipelines data robustes et scalables Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l'évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine
3277 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous