Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 139 résultats.
Freelance
CDI

Offre d'emploi
Data Quality Manager

Publiée le
Data governance

1 an
40k-45k €
470-730 €
Paris, France
Télétravail partiel
À propos du rôle La mission du Data Office s'est fortement enrichie avec la promotion de l'utilisation de la DATA par l'ensemble des projets des Métiers / Fonctions (Risque/Finance/ IT) de l'organisation et du Groupe. L'objectif est de développer l'activité commerciale, de diminuer les couts, d'améliorer l'efficacité opérationnelle et de répondre à la dimension règlementaire. La mission est au sein de l'équipe Data Office Data Quality. L'activité de cette équipe porte sur le développement, l'amélioration et le déploiement du Dispositif Data Quality (contrôle, dimension, labélisation, coordination des remédiations) dans l'écosystème de l'organisation et sur l'accompagnement Data sur les projets réglementaires (définition, cadrage, flowcharts, règle de gestion..)
Freelance

Mission freelance
Expert Gouvernance de données- Mode fédéré(obligatoire)

Publiée le
Data quality

2 ans
400-690 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Data Gouvernance/Steward Manager pour une mission longue Maitrise des framework de gouvernance : DAMA-DMBOOK ou équivalent : niveau 3 confirmé Outils de gouvernance des données : niveau 3 confirmé Data cataloging : niveau 3 confirmé Data Quality management : niveau 3 confirmé Compétences Exigées par le client : -Déploiement de la gouvernance de données en mode fédéré : Niveau Expert -Animation de comités et de communautés data : Niveau Expert - Conduite de changement : Niveau Expert
Freelance
CDI

Offre d'emploi
Ingénieur Cloud VMware Expert VCF / NSX-T / AVI (Senior)-Ivry-sur-Seine(H/F)

Publiée le
BGP (Border Gateway Protocol)
VMware vSphere

1 an
Ivry-sur-Seine, Île-de-France
🎯 Contexte de la mission Dans le cadre d’un programme stratégique de construction d’un cloud privé souverain , nous recherchons un Ingénieur Cloud VMware Senior , expert sur les technologies clés de virtualisation et réseau VMware : VCF, vSphere, NSX-T, AVI . La mission s’effectue au sein d’une équipe Cloud dédiée à la conception, au déploiement, au hardening et à l’exploitation d’infrastructures VMware de grande envergure, hautement sécurisées et critiques pour les applications internes. 🛠️ Missions principales 🔧 1. Conception & Développement des plateformes VMware Concevoir et optimiser des plateformes avancées basées sur : vSphere NSX-T (SDN / micro-segmentation) AVI (Load Balancing) VCF Participer à la construction du cloud privé souverain. Définir les services cloud adaptés aux besoins métiers. ⚙️ 2. Administration & Exploitation Gérer et maintenir l’infrastructure VMware : NSX-T, AVI, BGP . Assurer la haute disponibilité , la performance et la résilience. Intervention sur réseaux complexes : Juniper, Cisco . 🔐 3. Sécurité & Hardening Contribuer au hardening des infrastructures . Mettre en place des contrôles de sécurité avancés. Réaliser audits techniques, sécurité, conformité. 🤝 4. Collaboration & Support Accompagner les équipes de développement. Fournir support technique niveau expert. Participer à la montée en compétence interne. 🚨 5. Gestion des incidents Diagnostiquer et résoudre des incidents complexes. Proposer des axes d’améliorations et sécurisations. 📄 Livrables attendus Dossiers de conception des plateformes VMware Documents d’exploitation (Runbook / Architecture / Procédures) Hardening & fiches de conformité Documentation technique cloud & réseau ⚙️ Compétences techniques requises (IMPÉRATIVES) VCF – Expert NSX-T – Expert AVI – Expert vSphere, VMware Cloud Réseaux : BGP , virtual networking, haute dispo Connaissance des environnements datacenter (Cisco, Juniper) Français courant (impératif)
Freelance
CDI

Offre d'emploi
Pixie – Mission Freelance Data Analyst / Business Analyst E‑Commerce – Lille – Portage possible

Publiée le
BigQuery
Microsoft Power BI
SQL

3 ans
Nord, France
Télétravail partiel
Bonjour Pour un de mes clients, je recherche un(e) : Data Analyst / Business Analyst E-Commerce Rattaché(e) à l’équipe métier Pro Analyse du business des clients professionnels Réalisation d’analyses ad hoc et de dashboards pour accompagner les équipes métier Mission Couvrir tout le cycle data Requêtes SQL Analyse des données Création de KPIs Construction et mise à jour de dashboards Power BI Restitution claire des résultats avec une dimension data storytelling Échanges réguliers avec les équipes métier Pro et la direction Data Tâches principales Suivi des mises à jour des dashboards Analyses de performance des opérations commerciales Analyses de performance des conseillers de vente Pro Analyses de performance de l’offre Outils Power BI SQL GCP BigQuery Environnement marketing Python apprécié Git/Github niveau basique Profil recherché Minimum 5 ans d’expérience Capacité à challenger des équipes métier expérimentées Français courant Infos mission Début janvier Durée longue 3 ans Localisation Lille 3 jours sur site Résumé du profil idéal Data Analyst confirmé orienté business Pro À l’aise avec Power BI, SQL et BigQuery Capable de dialoguer avec le métier et de faire parler la donnée Si ce poste vous intéresse et que votre profil correspond, merci d’envoyer votre CV à jour. Je reviendrai vers vous rapidement pour échanger
Freelance
CDI

Offre d'emploi
Data Quality Analyst

Publiée le
Data governance
Data quality

1 an
40k-45k €
400-610 €
Paris, France
Télétravail partiel
Mission La mission du Data Office s'est fortement enrichie avec la promotion de l'utilisation de la DATA par l'ensemble des projets des Métiers / Fonctions (Risque/Finance/ IT) de l'organisation et du Groupe. L'objectif est de développer l'activité commerciale, de diminuer les couts, d'améliorer l'efficacité opérationnelle et de répondre à la dimension règlementaire. La mission est au sein de l'équipe Data Office Data Quality. L'activité de cette équipe porte sur le développement, l'amélioration et le déploiement du Dispositif Data Quality (contrôle, dimension, labélisation, coordination des remédiations) dans l'écosystème de l'organisation et sur l'accompagnement Data sur les projets réglementaires (définition, cadrage, flowcharts, règle de gestion..)
Freelance
CDI

Offre d'emploi
Data Analyst (SQL, SAS, Dataiku) - Tours

Publiée le
Dataiku
SAS
SQL

3 mois
32k-35k €
350-370 €
Tours, Centre-Val de Loire
Dans le cadre d'une activité d’exploitation et de supervision de traitements (récurrents ou non) qui persistera en 2026 et nécessite de venir renforcer l’équipe existante pour compenser le départ au T1 du domaine Patrimoine de plusieurs internes (trajectoire professionnelle) Il s’agit notamment de : superviser les traitements, en assurer la veille et la communication, gérer les incidents et interagir avec les clients internes/externes, créer et maintenir la documentation opérationnelle, la cartographie des sources, des données et leur utilisation, Optimiser des traitements (SQL, SAS, Dataiku) effectuer un 1er niveau d’analyse et de correction en cas d’anomalie, venir en support du reste de l’équipe avoir une bonne relation et communication avec le client.
Freelance
CDI

Offre d'emploi
Responsable Activité « Mainframe Cluster CXI

Publiée le
Data management

1 an
Île-de-France, France
Télétravail partiel
Les principales missions s’articuleront autour des axes suivant: • Gouvernance o Gestion du plan de capacité des ressources du périmètre o Gestion des entrées et sorties des prestataires o Production de reportings mensuels consolidés des activités du périmètre o Consolidation des indicateurs au sein de tableaux de bord • Coordination o Suivi de la consommation CPU Batch des traitements applicatifs o Suivi de la volumétrie des unités d’œuvre de facturation des environnements systèmes o Élaboration du planning annuel des opérations mensuelles de redémarrage des partitions, en coordination avec les parties prenantes o Animation du comité mensuel de planification de capacité o Représentation du périmètre dans les différentes instances de gouvernance et de pilotage o Gestion documentaire, partage de la connaissance et lutte contre l’obsolescence documentaire • Supervision et participation aux activités suivantes, en collaboration avec l’équipe : Exploitation applicative (RUN) o Vérification de la bonne exécution du planning et mise en œuvre des actions nécessaires pour assurer la reprise des traitements et le retour au fonctionnement nominal o Qualification, traitement et résolution des incidents, avec mise à jour de la base de connaissance et sollicitation des équipes tierces si nécessaire o Maintien à jour de la documentation, de la CMDB, des consignes de pilotage et des référentiels associés o Traitement et exécution des évolutions et des changements, incluant la gestion des demandes associées
Freelance
CDI

Offre d'emploi
Architecte Technique Data Expert Technique - Architecture Data & Cloud (H/F)

Publiée le
Gitlab

18 mois
40k-45k €
110-600 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Architecture technique, Sécurité, Méthode, Expert technique Spécialités technologiques : Cloud, Infrastructure & Cloud, Devops, Gouvernance des données, IAM Compétences Technologies et Outils AWS CI/CD Spark Terraform Python Docker Kinesis Amazon Kubernetes Gitlab Description et livrables de la prestation Le poste d'Architecte Technique Data Expert Technique, également de niveau Expérimenté ou Sénior, a pour mission d'assurer la validité technique et l'alignement des architectures Data avec les standards définis dans le cadre du Programme Vision 2035. En tant que référent technique, vous interviendrez en amont au sein des équipes CAPVISION (méthodologies Capvision, Découverte, Zoom) pour définir les architectures cibles et garantir leur cohérence au sein de l'écosystème SI existant. Vos responsabilités englobent la définition des architectures Cloud (performance, résilience), la mise en œuvre de la gouvernance des données (Dataviz, Datamesh), et la sécurisation des données. Compétences et Technologies (Focus Technique) : Ce rôle requiert une expertise en architecture Data et Cloud (Niveau 4). La maîtrise des outils de gouvernance de la donnée tels que Dataviz et Datamesh est primordiale (Niveau 4). Une expertise est demandée sur la gestion de la sécurité du SI, notamment la gestion des accès (IAM) et les mécanismes de protection des données (Niveau 4). De solides connaissances en intégration et déploiement continus (CI/CD) sont requises (Niveau 4). Techniquement, vous utiliserez Python et Spark. Les services Cloud spécifiques comprennent AWS IAM, Amazon Kinesis, AWS Lake Formation, AWS S3, ainsi que les outils d'industrialisation AWS, Gitlab CI, Docker, Kubernetes et Terraform. Expertise souhaitée Architecte Technique Data Expert Technique
Freelance

Mission freelance
Architecte Data Gouvernance

Publiée le
Architecture
Data governance
Data integrity

12 mois
550-650 €
Île-de-France, France
Télétravail partiel
Le ou la Responsable opérationnel(le) Data Gouvernance joue un rôle central dans l’animation, la mise en œuvre et le pilotage opérationnel de cette gouvernance, en lien étroit avec les métiers, la DSI et les acteurs data. Objectifs de la mission Assurer la mise en œuvre et le pilotage de la gouvernance des données au sein de l’organisation, en garantissant la qualité, la conformité réglementaire et la cohérence des référentiels et des flux de données. Missions principales1. Animation de la gouvernance des données Assurer le rôle de référent(e) opérationnel(le) en matière de gouvernance des données. Planifier, préparer et animer le Comité de Gouvernance Data. Contribuer à la construction, au pilotage et au suivi de la feuille de route Data. Organiser et animer les comités Qualité des Données (QDD) avec les entités concernées. Garantir l’alignement des actions entre les équipes métiers, les équipes IT et les différents rôles data. 2. Gestion des responsabilités et des rôles data Maintenir et faire évoluer la cartographie des responsabilités data (Data Owners, Data Stewards, référents IT). Coordonner les acteurs afin d’assurer la cohérence, la continuité et l’efficacité de la gouvernance des données. Accompagner la montée en maturité des rôles data au sein de l’organisation. 3. Gestion du Catalogue de Données Piloter la mise à jour, l’enrichissement et la validation du Catalogue de Données. Garantir l’accessibilité, la lisibilité et la cohérence des métadonnées. Promouvoir l’usage du catalogue auprès des équipes métiers et IT. 4. Qualité, conformité et audit des données Participer à la validation des tableaux de bord Qualité des Données (QDD). Identifier les écarts entre la modélisation logique et les implémentations physiques. Piloter les audits de conformité des référentiels de données. Contribuer à la définition, au suivi et à la priorisation des plans de remédiation. 5. Contribution à l’architecture d’entreprise Évaluer les impacts data, référentiels et flux lors des phases de cadrage fonctionnel des projets. Contribuer à la définition des architectures fonctionnelles et applicatives en cohérence avec les principes de gouvernance des données. Participer aux travaux de cartographie (domaines de données, objets métiers, dépendances entre systèmes). Modéliser ou contribuer à la modélisation des flux de données (fonctionnels, logiques et applicatifs). Appuyer les décisions d’urbanisation visant à simplifier, rationaliser et pérenniser le système d’information. Compétences requisesCompétences techniques et fonctionnelles Gouvernance des données (prioritaire) Expertise en data governance, data management et qualité des données. Maîtrise des référentiels de données, outils de catalogage, gestion des métadonnées et indicateurs QDD. Bonne connaissance des enjeux réglementaires et de conformité, notamment le RGPD. Architecture d’entreprise (complémentaire) Compréhension des principes d’architecture d’entreprise et d’urbanisation des SI (TOGAF ou équivalent apprécié). Capacité à analyser, challenger et formaliser des architectures fonctionnelles, applicatives et data. Compétences en modélisation des données, des processus métiers et des flux inter-applicatifs. Compétences comportementales Excellentes capacités de communication, avec un sens pédagogique affirmé. Aptitude à fédérer et coordonner des acteurs métiers et techniques aux enjeux variés. Rigueur, organisation, autonomie et sens du travail transverse. Capacité à vulgariser des sujets techniques auprès de publics non experts. Expérience Minimum 5 ans d’expérience en Data Governance, Data Management ou pilotage de projets data. Expérience en architecture fonctionnelle ou urbanisation du SI fortement appréciée. Expérience confirmée dans l’animation de comités et la coordination d’acteurs multiples. Rattachement et interactions Rattachement hiérarchique : SDG – Stratégie Digitale et Gouvernance. Interactions principales : équipes métiers, DSI, Data Stewards, Data Owners, architectes d’entreprise, équipes projets. Profil recherché Nous recherchons un(e) professionnel(le) senior de la data, reconnu(e) pour sa capacité à structurer, piloter et faire vivre une gouvernance des données à l’échelle d’une organisation complexe. Le ou la candidat(e) idéal(e) dispose d’une solide expertise en data governance et data management, complétée par une bonne compréhension des enjeux d’architecture d’entreprise et d’urbanisation du système d’information. Il ou elle sait évoluer dans des environnements transverses, multi-acteurs et réglementés, et jouer un rôle de facilitateur entre les métiers et l’IT. Doté(e) d’un excellent sens relationnel, le ou la Responsable opérationnel(le) Data Gouvernance est capable d’animer des instances de gouvernance, de structurer des décisions collectives et d’accompagner le changement avec pédagogie et pragmatisme. À l’aise aussi bien sur des sujets stratégiques que très opérationnels, il ou elle sait prioriser, structurer et sécuriser les enjeux data à fort impact business. Mots-clés Data Governance Gouvernance des données Data Management Qualité des données (Data Quality, QDD) Catalogue de données Métadonnées Référentiels de données RGPD / Conformité réglementaire Data Owners / Data Stewards Pilotage transverse Animation de comités Architecture d’entreprise Urbanisation du SI Modélisation des données Flux de données Architecture fonctionnelle et applicative Transformation data Environnement complexe Coordination métiers / IT
CDI
Freelance

Offre d'emploi
Data Engineer (spécialisation Snowflake)

Publiée le
Agile Scrum
Azure
Data analysis

12 mois
Paris, France
Télétravail partiel
Data Engineer (spécialisation Snowflake) Contexte du poste Au sein de la Direction des Systèmes d’Information, le Data Engineer rejoint l’équipe Data, responsable de la conception, de la mise en œuvre et de la maintenance des solutions d’exploitation et de valorisation des données. Dans un contexte de modernisation du SI et de structuration des usages data, l’entreprise déploie la plateforme Snowflake , solution cloud de référence pour unifier le stockage, le traitement et le partage des données. Missions principales Le Data Engineer interviendra sur l’ensemble de la chaîne de traitement de la donnée : 1. Conception et développement Concevoir, développer et orchestrer les flux de données sur Snowflake (Snowpipe, Streams, Tasks, Snowflake Pipelines). Définir et maintenir les modèles de données (zones Raw, Staging, Core, Data Marts). Développer des pipelines d’ingestion et de transformation de données (batch, near real-time). Garantir la qualité, la performance et la fiabilité des traitements. 2. Intégration et industrialisation Optimiser les coûts, la gouvernance et les performances de la plateforme Snowflake. Documenter les architectures, flux, schémas et traitements. Participer à l’industrialisation des processus Data Engineering (DataOps). 3. Gouvernance et sécurité des données Collaborer avec le Head of Data et le Data Architect pour concevoir une plateforme data conforme aux standards. Mettre en œuvre les bonnes pratiques de sécurité (RBAC, gestion des rôles et privilèges), de catalogage et de gestion des métadonnées. Contribuer à l’amélioration continue des normes de gouvernance data. 4. Support et amélioration continue Assurer le support technique des environnements Snowflake. Identifier les axes d’amélioration et accompagner les évolutions de la plateforme data. Former et accompagner les utilisateurs métiers, analystes et équipes BI.
Freelance

Mission freelance
Chef de projet technique - IaaS et Data

Publiée le
IaaS (Infrastructure-as-a-Service)

12 mois
660 €
Yvelines, France
Télétravail partiel
Notre client, un établissement financier majeur, recherche un CP IaaS et Data pour renforcer son équipe Cette mission est au sein du centre d’expertise pour l’infrastructure, le cloud, la donnée, l’IA et le DevOps. Il accompagne les projets de transformation numérique, garantit la performance, la sécurité et l’innovation, et propose des solutions adaptées aux besoins métiers et applicatifs. La mission consiste à piloter des projets dans le cadre de création d’offre produit, de traitement d’obsolescence ou de mise en conformité (réglementaire, sécurité, amélioration de QoS). - Piloter des projets sur le périmètre IaaS et DATA - Définir les solutions cibles, en collaboration avec les experts, et en lien avec les besoins utilisateurs -Coordonner l’ensemble des parties prenantes -Structurer et animer la gouvernance des projets -Etablir les plans d’investissements et le suivi financier des projets, en lien avec le Contrôle de Gestion - Gérer les risques projets Livrables - Rédaction des notes de cadrage ; présentation aux parties prenantes (sponsors, Chief Platform Officer, PM, PO) et aux différents comités - Animation des comités de suivi - Suivi opérationnel de l’avancement des projets (respect des délais, des jalons …) - Suivi des risques et des plans d’actions associés - Suivi rigoureux des budgets alloués - Garant de la livraison de tous les documents conformément à la méthodologie Projets Environnement technique Cloud Infrastructures (VMWare, OpenStack, Openshift), OS Factory (Windows, Linux, Unix), Containers (Docker, Kubernetes), plateformes Data (Cloudera, MAPR, Data Cloud GCP, …), Data Storage (bloc, fichier, objet)
Freelance

Mission freelance
Responsable Opérationnel Data Gouvernance

Publiée le
Data governance
Méthode Agile
RGPD

3 ans
600-700 €
Paris, France
Télétravail partiel
Bonjour, Nous recherchons pour notre client grand compte un Responsable Opérationnel Data Gouvernance répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence MDE/DATA/5001 en objet du message Vos responsabilités Assurer le rôle de référent opérationnel en matière de gouvernance des données. Planifier, préparer et animer le Comité de Gouvernance Data. Contribuer à la construction et au suivi de la feuille de route Data. Organiser et animer les comités Qualité des Données (QDD) avec les entités concernées. Garantir l’alignement des actions entre équipes métiers, équipes IT et rôles data. Maintenir la cartographie des responsabilités (Data Owners, Data Stewards, référents IT). Coordonner les acteurs pour assurer la cohérence et la continuité de la gouvernance. Piloter la mise à jour, l’enrichissement et la validation du Catalogue de Données. Garantir l’accès, la lisibilité et la cohérence des métadonnées. Participer à la validation des dashboards QDD. Identifier les écarts entre la modélisation logique et les implémentations physiques. Piloter les audits de conformité des référentiels. Contribuer à la définition et au suivi des plans de remédiation. Évaluer les impacts data, référentiels et flux lors des cadrages fonctionnels des projets. Contribuer à la définition des architectures fonctionnelles et applicatives en cohérence avec les principes de gouvernance. Participer aux travaux de cartographie (domaines de données, objets métiers, dépendances systèmes). Modéliser ou contribuer à la modélisation des flux de données (fonctionnels, logiques, applicatifs). Appuyer les décisions d’urbanisation pour simplifier et rationaliser le SI. Connaissance des référentiels, outils de catalogage, métadonnées et tableaux de bord QDD. Maîtrise des enjeux réglementaires (RGPD), conformité et gestion des référentiels. Compréhension des principes d’architecture d’entreprise et d’urbanisation (idéalement TOGAF). Capacité à analyser ou challenger des architectures fonctionnelles, applicatives et data. Compétences en modélisation des données, processus et flux inter-applicatifs.
Freelance

Mission freelance
Tech Lead Data Engineer - IoT / Java & Cloud

Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)

12 mois
720-730 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Tech Lead Data IoT – Java & Cloud" pour un client dans le secteur du retail. Description⚡ Le Contexte Au sein d'une plateforme IoT gérant des millions d'objets connectés (Smart Devices, vélos, équipements sportifs), nous recherchons le Référent Technique Data . Il ne s'agit pas d'un poste de Data Engineer classique qui ne fait que des pipelines, mais d'un rôle de Software Engineer / Tech Lead spécialisé dans le traitement de la donnée. Vous êtes le "Tech Lead Data" unique de la plateforme : vous portez la responsabilité technique et architecturale de tout ce qui touche à la donnée au sein de l'écosystème IoT. 🎯 Votre Mission : Architecturer et Construire le Backend Data Votre rôle est central : vous construisez le moteur qui ingère, traite et structure les événements remontés par les objets connectés. Vous êtes garant de la cohérence de la donnée, du capteur jusqu'au stockage. 1. Développement Backend & Traitement IoT (80-90% du poste) Développement Java : Concevoir et développer les briques Backend chargées du traitement des flux (Temps Réel & Événementiel). Gestion de la complexité IoT : Gérer les problématiques de connectivité instable. Exemple concret : Reconstituer une session de sport ("Ride") complète même en cas de perte de réseau, gérer les règles de début/fin de session automatiquement. Privacy by Design : Intégrer les contraintes RGPD et le respect des consentements utilisateurs directement dans l'architecture de collecte (filtrage à la source, anonymisation). 2. Architecture & Lead Data Référent Technique : Vous êtes le point de contact unique pour toutes les décisions impactant la data sur la plateforme. Conseil & Gouvernance : Vous auditez et conseillez les autres équipes Backend. Si une feature touche à la structure de la donnée, vous intervenez pour valider le modèle. Modélisation : Définir les modèles de données pour garantir leur exploitabilité future. 3. Analytics & Maintenance (10% du poste) Maintenir les flux ETL existants et les jobs d'analytics. Intervenir ponctuellement sur du Spark / Scala pour des besoins de BI ou de Data Science. 🛠 La Stack Technique Un environnement Multi-Cloud et moderne : Cloud Principal : GCP (Google Cloud Platform). IoT : AWS IoT Core (gestion de la flotte et connectivité). Langage Principal : Java (Expertise demandée). Analytics/Data : Databricks , Spark, Scala.
Freelance

Mission freelance
DEVIENS #AUTEUR DE VIDEO Hadoop - Stockage et traitement des données

Publiée le
Big Data
Hadoop

4 mois
100-300 €
Saint-Herblain, Pays de la Loire
Télétravail partiel
Nous sommes une maison d'édition spécialisée dans la publication de livres et vidéos autour de l'informatique et de la bureautique. Nous recherchons un(e) professionnel(le) de l'IT pour la prochaine publication de notre vidéo qui portera sur Hadoop. "Pourquoi pas moi ? Je suis développeur(euse), expert(e) Big Data, ou formateur(trice)... et Hadoop n'a aucun secret pour moi. J’ai envie de partager mon expertise au plus grand nombre ! Participer à la création d'une vidéo me permettra de renforcer ma crédibilité et de mettre à profit mes connaissances." Vous bénéficierez d'un accompagnement éditorial (sommaire, essai, méthodologie, suivi, montage vidéo...) La rémunération est proposée sous forme de forfait.
Freelance

Mission freelance
Data Engineer : Tests de Non-Régression

Publiée le
Agile Scrum
Google Cloud Platform (GCP)
Linux

3 mois
440 €
Paris, France
Télétravail partiel
Vous rejoindrez une équipe agile (10 personnes dans l'équipe "customer data", dont 3 développeurs, PO, BA, Scrum Master, PM) pour travailler sur un enjeu majeur : garantir la fiabilité des données clients. Votre mission principale sera de concevoir et d'exécuter des tests de non-régression entre la plateforme de données historique on-site et la nouvelle plateforme migrée sur GCP (Google Cloud Platform) . 💻 Votre Profil et Compétences Une forte expertise en SQL (Teradata/GCP) est indispensable (environ 60 % de l'activité). Vous utiliserez également vos compétences en Big Data (15 %) et Linux (10 %) pour investiguer les problèmes. Nous recherchons un profil faisant preuve d'une forte autonomie , d'un engagement et d'une curiosité solides pour concevoir et mener des tests fiables. Une bonne intégration dans une équipe dynamique est essentielle. Le candidat devra maîtriser l' anglais courant (C1 minimum)
Freelance
CDI

Offre d'emploi
chef de projet technique - move to cloud

Publiée le
Azure
CI/CD
Pilotage

6 mois
Paris, France
Télétravail partiel
Appel d’offres – Chef de Projet Move To Cloud (Technico-Fonctionnel) 1. Contexte de la mission Dans le cadre d’un programme de transformation numérique, notre client, une mutuelle , lance un projet de migration Move To Cloud portant sur un périmètre d’environ cinquante applications . L’objectif principal est le pilotage opérationnel de la migration des applications vers le cloud, sans mission d’urbanisme ni de conception d’architecture. 2. Objectifs de la mission Le Chef de projet Move To Cloud interviendra sur : Le pilotage global du projet de migration des applications La coordination des équipes techniques et métiers Le suivi des plannings, des risques et des livrables La gestion des mises en production Le reporting projet auprès des parties prenantes 3. Périmètre et responsabilités Pilotage de projets de migration Move To Cloud (environ 50 applications) Coordination des différents acteurs (équipes infra, applicatives, métiers, prestataires) Organisation et animation des comités projet Suivi des processus de mise en production Supervision des chaînes CI/CD Suivi de la performance et de la stabilité via des outils de monitoring (Dynatrace ou équivalent) Gestion des risques, dépendances et arbitrages Documentation et communication projet Nota : Aucun travail d’urbanisme ou d’architecture n’est attendu. Le poste est orienté exclusivement pilotage et coordination . 4. Profil recherché Compétences et expériences Chef de projet technique confirmé Expérience avérée dans le pilotage de projets Move To Cloud sur un volume significatif d’applications Expérience sur Azure ou autre environnement cloud (AWS, GCP) Bonne compréhension des environnements techniques applicatifs Maîtrise des processus de mise en production Connaissance des pratiques CI/CD Expérience avec des outils de monitoring (Dynatrace ou équivalent) Environnement Une expérience dans le secteur de l’assurance ou de la mutuelle est un plus (non bloquant) Anglais technique requis
5139 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous