L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 7 154 résultats.
Offre d'emploi
Data Quality Analyst
UCASE CONSULTING
Publiée le
Data cleaning
Data quality
Gouvernance
1 an
40k-50k €
400-500 €
Île-de-France, France
Pour le compte de notre client, nous recherchons un(e) Senior Data Quality / Master Data Analyst pour renforcer la gouvernance et la fiabilité du référentiel utilisateurs. Vous serez garant(e) de la qualité, de la cohérence et de l’alignement des données utilisateurs entre le référentiel central et les outils tiers, notamment : Docebo SmartRecruiters ServiceNow Microsoft Entra ID Vos missions Piloter la qualité et la complétude des données utilisateurs Identifier et corriger les doublons et incohérences Réconcilier les données entre plusieurs systèmes Contrôler la cohérence entre rôles, services et abonnements Assurer l’alignement avec l’annuaire (Entra ID) Mettre en place des contrôles récurrents et produire un reporting hebdomadaire Coordonner les actions correctives avec les équipes concernées
Mission freelance
Expert Fortinet
ALLEGIS GROUP
Publiée le
F5
Fortinet
Réseaux
3 mois
160-650 €
Toulouse, Occitanie
Bonjour, je suis à la recherche d'un expert Fortinet, dont vous trouverez la fiche de poste ci-dessous: Fiche de Poste – Expert Fortinet (N3) – Infrastructures de Sécurité Datacenter Contexte du poste Dans le cadre d’un projet stratégique autour de la modernisation et de la sécurisation d’un Datacenter critique , l’Expert Fortinet prendra en charge le build, le run, le design et l’industrialisation des infrastructures de sécurité réseau. Le poste requiert une très forte expertise technique et une capacité à intervenir dans des environnements sensibles à haute disponibilité. Missions principales Assurer le build , le run et le design des plateformes de sécurité reposant sur l’écosystème Fortinet (FortiGate, FortiManager, FortiAnalyzer…). Réaliser l’ ingénierie avancée sur les solutions Fortinet : architecture, intégration, optimisation, troubleshooting N3. Contribuer à l’ automatisation et à l’industrialisation (scripts, API, Ansible, pipelines CI/CD…). Intégrer les solutions au sein d’un réseau d’entreprise complexe (concepts avancés L2/L3, segmentation, zones, politiques de sécurité…). Participer au traitement des incidents majeurs, à l’analyse de cause racine et aux plans d’amélioration continue. Contribuer aux projets de transformation : modernisation, refonte, migration, montée de version… Rédiger et maintenir la documentation technique, les schémas, les procédures d’exploitation. Participer à la veille technologique sur les solutions réseau & sécurité.
Mission freelance
Data Manager
RED Commerce - The Global SAP Solutions Provider
Publiée le
Data management
6 mois
Lyon, Auvergne-Rhône-Alpes
*** Data Manager – Hybride – Lyon *** RED Global est à la recherche d’un Data Manager pour venir rejoindre les équipes de l’un de nos clients dans le cadre de leurs projets en cours. Profil recherché: 8-10 ans d’expérience en tant que Responsable Data/ Data Manager Capacité à manager des équipes et différentes plateformes. Management Opérationnel Excellentes compétences de communication Détails de la mission: Démarrage : ASAP Localisation : Hybride – Lyon – 2/3 jours sur site par semaine Durée : contrat de 6 mois puis passage en CDI Langues : Français et Anglais obligatoire
Mission freelance
Data Manager expert modélisation de données (H/F)
Cherry Pick
Publiée le
Data analysis
Data quality
Snowflake
12 mois
600-630 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Data Manager expert modélisation de données(H/F), pour le compte de l'un de ses clients qui opère dans le domaine Hôtelier. Description 🎯 Contexte de mission Dans le cadre d’un programme stratégique au sein d’une direction Data, nous recherchons un Data Manager Senior intervenant en rôle transverse sur le domaine Customer et les autres domaines data. La mission vise à garantir la cohérence, la standardisation et la qualité long terme du paysage data , en assurant l’alignement entre les équipes métier, produit et techniques. 🚀 Missions principales et rôle Le Data Manager agit comme référent fonctionnel transverse , garant des standards de data management et facilitateur entre les équipes. 🏗️ 1. Cadrage & Design des Data Products Accompagner les équipes Customer dans le cadrage et la conception des data products Apporter une forte compréhension fonctionnelle des processus Customer Conseiller sur les choix de modélisation (complexité, faisabilité, impacts transverses) Garantir l’alignement avec l’architecture cible et les standards existants 📐 2. Standards & Gouvernance Data Définir et maintenir les standards de data management (règles de modélisation, conventions de nommage, documentation) Structurer les règles de qualité, contrôles et réconciliations Assurer la cohérence et l’adoption des standards au sein du domaine Customer Garantir la qualité de la documentation technique et de la data lineage Être le point de référence sur les pratiques de gouvernance 🌐 3. Urbanisation & Cohérence Transverse Assurer l’interopérabilité entre domaines data Identifier doublons, incohérences et fragmentation des concepts Customer Formuler des recommandations d’optimisation et de simplification Promouvoir la réutilisation et l’harmonisation des modèles Contribuer à la vision long terme de la qualité data 📦 Livrables attendus Support continu aux activités de data management Documentation technique des données (modèles, définitions, lineage) Mise en place et suivi des règles de qualité et de contrôle Coordination des parties prenantes Recommandations d’urbanisation et d’harmonisation
Offre d'emploi
Business Analyst Data (F/H)
CELAD
Publiée le
42k-45k €
Nantes, Pays de la Loire
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ CDI (42-45 K€) - 3 jours de télétravail / semaine - Nantes - Expérience de 4 ans minimum Nous poursuivons notre développement et recherchons actuellement un.e Business Analyst intervenir sur un projet d’un de nos clients, dans le secteur bancaire. Contexte : Dans le cadre d’un projet de migration, vous interviendrez sur des activités telles que la rédaction de spécifications, l’analyse des impacts liés à la migration du système ainsi que la participation aux processus de certifications dynamiques. Vos principales missions : En lien avec les équipes métier et techniques, vous serez le trait d’union qui transforme les idées en solutions concrètes. - Comprendre les besoins des utilisateurs : animation d’ateliers pour challenger et prioriser les besoins - Rédiger les fonctionnalités / spécifications et les règles de gestion - Anticiper les besoins en termes de migration : anticipation, préparation et déroulé optimal de recette - Former et accompagner : vous aidez les métiers à s’approprier les outils et les usages - Conseiller les managers métiers : vous les guidez dans l’évolution de leur organisation et de leurs process - Partager et convaincre : animation de comités, restitution des analyses, recommandations stratégiques Ce que vous apportez : - Vous comprenez le fonctionnement d’un ETL et êtes capable de lire et analyser un flux ou un programme idéalement sous Semarchy - Maîtrise du langage SQL (Requêtes complexes pour rentrer en base) - Vous êtes à l’aise dans les environnements agiles, avec une bonne maîtrise des rituels - Vous savez rédiger avec clarté, parler avec impact et surtout convaincre - Vous êtes capable de vous adapter à vos interlocuteurs
Mission freelance
INGENIEUR DATA BI - GENIO
PROPULSE IT
Publiée le
BI
24 mois
250-500 €
Paris, France
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Offre d'emploi
Architecte Data Mesh
KLETA
Publiée le
Architecture
Data governance
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Mesh pour définir et piloter la mise en place d’une architecture data fédérée orientée domaines. Vous analyserez les organisations, les flux de données et les architectures existantes afin de proposer une trajectoire cible alignée avec les principes du Data Mesh (responsabilité par domaine, produits data, self-service, gouvernance fédérée). Vous guiderez la conception des plateformes de données par domaine en définissant des standards communs (contrats de données, qualité, observabilité, versioning, discoverabilité) et en structurant les mécanismes de partage et d’interopérabilité entre équipes. Vous serez responsable des choix structurants en matière de gouvernance, de sécurité, de catalogage et de propriété des données, tout en veillant à la scalabilité et à l’exploitabilité du modèle. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud, DevOps et métiers pour accompagner le changement organisationnel et technique. Vous aurez également un rôle clé dans l’animation d’ateliers, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des pratiques Data Mesh et de la culture produit autour de la donnée.
Offre d'emploi
Data Engineer (F/H)
CELAD
Publiée le
35k-42k €
Strasbourg, Grand Est
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Strasbourg - Expérience de 2 ans minimum Vous aimez transformer les données en décisions concrètes ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, intervenant dans le secteur bancaire. Contexte : Vous interviendrez directement sur des projets d’intégration et d’exploitation de données, contribuant à rendre l’information accessible et exploitable pour les équipes métier. Voici un aperçu détaillé de vos missions : - Concevoir et maintenir des processus d’intégration de données (ETL / ELT), idéalement avec Semarchy xDI (anciennement Stambia) - Participer à la modélisation de systèmes décisionnels et à l’organisation des données - Manipuler et optimiser les bases de données avec le SQL - Collaborer avec les équipes BI sur des outils comme SAP/BO Situation géographique : Strasbourg (67)
Offre d'emploi
Ingénieur Big Data
OBJECTWARE
Publiée le
Apache Spark
Cassandra
CI/CD
3 ans
40k-76k €
400-550 €
Île-de-France, France
Contexte : Intégration d´une équipe de développeurs data (Java, Spark, Spring) dont le rôle est la mise en place de pipelines de données à destination de vues NoSQL (Cassandra, MongoDB, Elasticsearch) Hard skills demandés : Maîtrise Développement Objet Maîtrise d’un langage objet (Java) Maîtrise SQL Framework Spring Plateforme Spark Connaissance des Web Applications & Micro-services Maîtrise DevOps (CICD, Git, Jenkins) Connaissance approfondie des bonnes pratiques de développement et des Design Pattern Connaissance Domaine Cloud Connaissance du Métier Data / Big Data Vernis langage Python Hard skills optionnels : Maitrise de Mongo DB , Cassandra, et Elastic Search Conception asynchrone Connaissance Domaine DataScience Connaissance Domaine Cybersecurité Soft skills : Autonomie Motivation Organisation Humilité Négociation Curiosité Partage Sens du service Pragmatique / Réaliste Mindset Sensibilisé à la Qualité de code Sensibilisé à la vie de Production Expérience demandée : Développement objet en environnement de production Expérience de 5 ans min en développement data Expérience dans un grand groupe (expérience de l’inertie et des contraintes d’un groupe) Expérience sur tout le cycle de vie d’une application (besoin, conception, développement, déploiement, maintenance) Expérience souhaitée en amélioration d’une solution existante (contrainte de SLA, performance, montée en charge, refactoring, voir refonte) Les missions sont : Recueillement du besoin utilisateur/BA, conceptualisation de la solution technique associée et l’implémenter Adoptation d´une approche proactive sur la qualité de code avec une méthodologie TDD Amélioration continue du code existant et revue avec les pairs des évolutions Support et sensibilisation des pairs à la qualité du code, aux bonnes pratiques et outillage améliorant l’expérience de développement Inscription dans une démarche agile avec un rythme de livraison soutenu (1 MEP / mois)
Mission freelance
POT8985 - Un Lead Data Continuity sur Meudon
Almatek
Publiée le
Big Data
6 mois
400-550 €
Meudon, Île-de-France
Almatek recherche pour l'un de ses clients, un Lead Data Continuity sur Meudon. Objectif : Diagnostiquer les risques liés à la maturité et à la continuité des données Sécuriser les décisions clés de conception (KDD) Concevoir et contribuer au lancement d'un hub de continuité des données permanent Activités : Concevoir et déployer un cadre de maturité structuré Animer des ateliers multi-entités Réaliser des profils de données Élaborer des cartographies de maturité inter-groupes Identifier les risques systémiques Fournir une feuille de route de remédiation priorisée
Offre d'emploi
Analyste / Ingénieur Sécurité Opérationnelle (H/F) - Paris 7
Espritek
Publiée le
Administration linux
Administration systèmes et réseaux
Endpoint detection and response (EDR)
9 mois
40k-50k €
400-550 €
Paris, France
Dans le cadre d'un renforcement d'équipe pour notre client final (Secteur SPIE ICS), nous recherchons un(e) Analyste Sécurité Opérationnelle pour une mission de longue durée. Missions principales : Assurer le maintien en condition de sécurité (MCS) des infrastructures. Administrer et exploiter les outils de sécurité : EDR, Antivirus, SIEM, Firewall, Sondes, Proxy. Analyser les risques et participer aux audits SSI selon les référentiels (ANSSI, CNIL, RGS). Gérer les situations de crise et assurer la veille technologique. Accompagner la sécurisation des environnements Cloud et DevSecOps (Conteneurs, Kubernetes).
Offre d'emploi
Data Analyst Senior H/F
SMARTPOINT
Publiée le
Git
PySpark
Python
12 mois
50k-60k €
400-500 €
Nantes, Pays de la Loire
Analyse et compréhension des besoins Comprendre et modéliser les problématiques métiers et celles du pôle. Définir le périmètre des données nécessaires à la mise en œuvre des solutions analytiques. Élaborer un plan d’analyse des données adapté aux besoins métiers. Data science et modélisation Concevoir et développer des modèles de machine learning . Mettre en œuvre des techniques statistiques et de data mining . Optimiser les modèles de données des projets data. Développer et maintenir des scripts Python optimisés . Exploitation et valorisation des données Analyser les données et interpréter les résultats pour les métiers . Conceptualiser des solutions autour de problématiques opérationnelles. Formaliser les résultats d’analyse et les présenter aux équipes métiers. Mettre en évidence la valeur des actions proposées. Visualisation et restitution Concevoir des visualisations de données adaptées aux besoins métiers . Produire éventuellement des visualisations cartographiques . Rendre les résultats lisibles, exploitables et actionnables. Collaboration et industrialisation Créer les tables et vues nécessaires aux projets data . Collaborer avec les équipes Data Ops pour l’industrialisation : collecte de données traitements supervision restitution Estimer la charge des traitements techniques et des développements. Recommandations et amélioration Être force de proposition sur les actions à mettre en œuvre. Formuler des préconisations opérationnelles basées sur les analyses.
Mission freelance
Architecte Réseau Sécurité - Orléans
Signe +
Publiée le
Cisco
F5
FortiGate
6 mois
410-450 €
Orléans, Centre-Val de Loire
Contexte de la mission Réalisation d’études complexes permettant de définir les solutions adéquates de sécurité en terme de réponse aux besoins déclinées de la direction informatique, de faisabilité, de performance, de risques et de coûts. • Elaboration et présentation des dossiers de décision associés auprès des instances de gouvernance. • Elaboration des cahiers des charges techniques, en lien avec les acheteurs, contribution au choix de prestataires / fournisseurs. • Supervision et coordination de la mise en œuvre et l’administration des architectures matérielles et logicielles (systèmes, outils et architectures de sécurité), notamment par le pilotage de chantiers/projets techniques • Définition des règles de bonne gestion, des indicateurs clés des infrastructures et solution de sécurité • Contribution à la mise en œuvre et à la gestion du référentiel technique des infrastructures et solution de sécurité • En escalade des équipes d’administration, gestion des incidents complexes et nouveaux en lien avec des interlocuteurs internes / externes (éditeurs...). Coordination des actions de remise en service et de mise en œuvre des mesures correctives. • Réalisation du transfert de compétences et de l'assistance technique sur son périmètre.
Offre d'emploi
Ingénieur DevOps – Plateforme Data H/F
DSI group
Publiée le
Azure Data Factory
Azure DevOps
45k-55k €
Lyon, Auvergne-Rhône-Alpes
Missions principales: Déploiement et automatisation Concevoir, mettre en place et faire évoluer les outils de déploiement continu (CI/CD) pour les applications et traitements de données. Automatiser les processus d’intégration, de livraison et de déploiement des solutions analytiques. Maintenir les pipelines CI/CD et garantir leur fiabilité. Gestion de l’infrastructure Administrer et faire évoluer les infrastructures Linux supportant les plateformes analytiques. Maintenir les composants middleware, bases de données et outils techniques . Anticiper et gérer les problématiques liées à l’obsolescence, la sécurité et les évolutions fonctionnelles . Collaboration avec le SI Collaborer avec les différents acteurs du système d’information : Développeurs Architectes Équipes sécurité Équipes d’exploitation S’assurer de la conformité des solutions avec les standards et l’architecture de l’entreprise . Documentation et bonnes pratiques Rédiger et maintenir la documentation technique et opérationnelle . Formaliser les procédures liées aux déploiements et à l’exploitation. Travail d’équipe Participer aux cérémonies agiles et aux activités de l’équipe . Contribuer à l’amélioration continue des pratiques DevOps. Activités secondaires Étudier les évolutions de la plateforme data dans le cadre de la transformation du SI DATA (Cloud / On-Premise). Participer à la définition des solutions permettant d’assurer la continuité des activités analytiques dans un nouveau contexte DSI . Accompagner les équipes data dans l’adaptation aux nouveaux environnements technologiques.
Offre d'emploi
Product Owner Big Data
KLETA
Publiée le
Big Data
Product management
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Product Owner Big Data pour piloter la roadmap d’une plateforme data industrielle et maximiser la valeur des produits data. Vous analyserez les besoins métiers et techniques, structurerez le backlog produit et proposerez des trajectoires d’évolution alignées avec la stratégie data de l’entreprise. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science, BI, Cloud et DevOps pour traduire les besoins en user stories claires, définir des critères d’acceptance et prioriser les fonctionnalités à forte valeur ajoutée. Vous accompagnerez la mise en place de produits data fiables, documentés et exploitables, en intégrant des enjeux de qualité, de gouvernance et de performance. Vous animerez des ateliers avec les parties prenantes, participerez aux cérémonies agiles et suivrez des indicateurs d’usage et de création de valeur. Vous aurez également un rôle clé dans la communication entre équipes techniques et métiers, en facilitant l’alignement stratégique et en promouvant une culture produit orientée données et impact business.
Mission freelance
Data ingénieur spécialiste DBT / Data Build Tool (H/F)
ALLEGIS GROUP
Publiée le
DBT
12 mois
Yvelines, France
TEKsystems recherche pour l'un de ses clients grand compte un(e) Data ingénieur spécialiste DBT / Data Build Tool (H/F) Vos missions : Concevoir et mettre en œuvre des plateformes de données modernes Industrialiser et optimiser des solutions techniques Développer et maintenir des pipelines de données efficaces, du sourcing à la visualisation (ingestion, traitement, exposition) Assurer la qualité et la sécurité des données tout au long de leur cycle de vie Collaborer avec les équipes métier pour comprendre les besoins et fournir des solutions data adaptées Évaluer et recommander des technologies émergentes pour améliorer les capacités de la plateforme data Dans l’environnement technique suivant (cette liste n’est pas exhaustive et surtout, elle indique les technos qui nous intéressent !) :
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
7154 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois