Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 371 résultats.
CDI

Offre d'emploi
Data Engineer - GCP - CDI

Espritek
Publiée le
BigQuery
Google Cloud Platform (GCP)

3 ans
50k-65k €
140 €
Ivry-sur-Seine, Île-de-France
FnacDarty est le leader européen du retail spécialisé omnicanal, avec des marques iconiques telles que Fnac, Darty, Nature et Découverte, WeFix, engagé pour un choix éclairé et une consommation durable. Vous êtes passionné par les outils BI et la data ? Rejoignez la Data & AI Factory de FnacDarty, entité qui regroupe les compétences fonctionnelles et techniques qui contribue au développement de l’activité grâce à la richesse de nos données et aux technologies avancées d’exploitation. L’entreprise recherche un TechLead Data pour intervenir au sein de la squad Exploitation (Améliorer le pilotage opérationnel des magasins, optimiser les processus et soutenir les décision terrain) Description La mission nécessite un profil capable d’assurer à la fois : • un rôle de leadership technique, garant de la cohérence des choix d’architecture, de la qualité des développements et de l’industrialisation des solutions • un rôle opérationnel de développeur, pleinement impliqué dans la conception et la réalisation des pipelines, modèles et orchestrations. Vous interviendrez principalement sur les technologies GCP (BigQuery, Dataform, Cloud Composer,…) et contribuerez également, dans une moindre mesure, à la maintenance et à l’évolution de flux existants sous Talend. En binôme avec le PO, vous participerez au cadrage des besoins, à la structuration du backlog, à la définition des solutions techniques et à la sécurisation de la delivery.  Missions principales • Participer au cadrage fonctionnel avec le PO et les parties prenantes métier pour comprendre les impacts business des données et ceux afin de réaliser des conceptions pertinentes et alignées avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Contribuer ponctuellement aux flux existants sous Talend. • Assure la maintenance corrective ou évolutive • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Mettre en place des bonnes pratiques de développement : tests, documentation, revue de code, versioning. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe • Assurer une veille technologique sur les outils GCP et les frameworks data. Livrables • Conceptions techniques des modèles, pipelines et orchestrations GCP. • Développements et industrialisation des traitements (BigQuery, Dataform, Cloud Composer). • Documentation technique à jour (architecture, transformations, procédures). • Contributions au cadrage et à la structuration du backlog avec le PO. • Mise en place ou renforcement des bonnes pratiques DataOps (tests, CI/CD, monitoring). • Assurer la TMA des pipelines existants (maintenance corrective et évolutive, résolution d’incidents, mises à jour techniques). Compétences  Compétences techniques requises : • Langages : Maîtrise de SQL et connaissance de langages comme Python ou Java pour les traitements de données. • GCP : Expérience sur les outils BigQuery, DataForm, CoudComposer/AirFlow, Pub/Sub, Dataflow et d’autres services GCP liés aux données. • Talend : Connaissances et pratiques dans la conception et la gestion des workflows • Outils : Familiarité avec des outils de CI/CD comme Git, Jenkins  Compétences transversales : • Esprit analytique et rigueur. • Leadership technique, pédagogie, capacité à embarquer. • Approche orientée résolution de problèmes et fiabilité opérationnelle. • Capacité à gérer des priorités multiples dans un environnement dynamique. • Capacité à travailler en équipe et à collaborer avec des parties prenantes variées. • Autonomie et force de proposition sur les solutions techniques. • Bonne communication et pédagogie pour expliquer les concepts techniques aux non-spécialistes. • Capacité à comprendre les besoins pour proposer aux métiers les solutions leur permettant d’utiliser efficacement les données et de prendre les bonnes décisions
Freelance

Mission freelance
Architecte Technique Senior - SI

Codezys
Publiée le
Big Data
DevOps
Java

6 mois
Paris, France
a mission s'inscrit au sein du département Architecture d'un organisme majeur de la protection sociale. Nous recherchons un Architecte Technique Senior (15-25 ans d'expérience) pour rejoindre le pôle Accompagnement et Conformité. Le consultant aura pour responsabilité de faire évoluer l'architecture du SI pour répondre aux besoins utilisateurs tout en assurant l'interopérabilité des nouvelles solutions avec l'environnement existant. Il travaillera en étroite collaboration avec l'Architecture d'Entreprise (Urbanistes) et les équipes d'experts techniques (socles, systèmes, réseaux). Objectifs et livrables Objectifs principaux : La mission consiste principalement à accompagner les projets dans la définition de leur architecture technique en cohérence avec les politiques techniques de l'organisme. Détail des activités : Support aux projets (70% de l'activité) : Accompagner l'élaboration des Dossiers d'Architecture Technique (DAT), contribuer à l'instruction et aux revues d'architecture, et réaliser des études d'impact pour les nouvelles technologies. Démarche d'architecture et conformité : Définir des solutions techniques conformes aux standards et assurer la cohérence avec les briques de production (Gateway, Kubernetes, Middleware...). Collaboration et expertise : Valider les solutions avec les experts techniques et suivre les évolutions des socles. Transformation SI : Accompagner les transformations vers le Cloud et les projets BI / Big Data. Environnement technique : Socle applicatif : JAVA (JEE, Spring, Hibernate), API/SOA (REST, SOAP) Infrastructure & Cloud : Kubernetes, Openshift, Ansible, VMWare, Architecture Microservices. Data (Atout) : Big Data, Spark, Kafka, ELK. Bases de données : PostgreSQL, Oracle, Cassandra. Livrables attendus : Dossiers d'Architecture Technique (DAT). Schémas d'architecture (modélisation Archimate). Architecture Decision Records (ADR) pour la traçabilité des choix. Comptes rendus des comités d'architecture. Analyses de marché et supports de veille technologique.
CDI

Offre d'emploi
Consultant Data Platform Imagino F/H (H/F)

█ █ █ █ █ █ █
Publiée le
SQL

30k-50k €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Ops engineer - Data Factory (AWS, Databricks)

CAT-AMANIA
Publiée le
Amazon S3
AWS Glue
Databricks

1 an
100-450 €
Lille, Hauts-de-France
Objectifs et livrables Ta mission sera de Garantir la robustesse de la plateforme (DRP, PCA) Monitorer et prendre des actions proactives de management de la plateforme de stockage (Storage Lens, Cloudtrails) Assurer le support et l'accompagnement sur S3, Glue, Unity Catalog Déployer de nouvelles ressources infra via Terraform et maintenir l'existant Etroite collaboration avec les ops engineer de notre team infra centrale et notre staff ops Accompagner et former Définir et promouvoir les bonnes pratiques proposées au sein de l'équipe Participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Gouvernance automatisée (Data contract registry, access management) Déploiement de Unity catalog et activations de ses nouvelles features (lineage, managed tables etc.)
Freelance

Mission freelance
Consultant Leader SAP Master Data

CERCAR
Publiée le

Paris, France
Dans le cadre du renforcement de sa gouvernance des données, un grand groupe recherche un Master Data Leader SAP pour piloter la gestion des données de référence au sein de son environnement SAP. La mission s'inscrit dans un contexte structurant avec des enjeux forts de qualité, de cohérence et de centralisation des données. Objectif de la mission Garantir la qualité, l'intégrité et la disponibilité des données de référence utilisées par les processus métiers, en définissant et en pilotant une gouvernance data robuste et durable dans l'écosystème SAP. Missions principales Superviser la création, la modification et la validation des données de référence dans SAP Assurer la qualité des données (déduplication, correction des incohérences, fiabilisation des référentiels) Définir et mettre en place des règles de gouvernance, workflows et mécanismes de contrôle Centraliser les données dans un référentiel unique et structuré Agir comme interface entre les équipes métiers, IT et projet SAP Participer aux projets d'implémentation SAP, notamment sur les modules impactés par les données de base Encadrer et structurer l'organisation Master Data si nécessaire Analyser les impacts des évolutions de processus sur les référentiels et assurer leur alignement stratégique Compétences requises Expertise approfondie des référentiels SAP (articles, fournisseurs, clients, nomenclatures, etc.) Maîtrise des outils de gouvernance type SAP Master Data Governance (MDG) Bonne compréhension des processus Supply Chain, logistique ou Finance Solide expérience en qualité de données et en gouvernance Capacité à piloter des sujets transverses et à structurer une organisation data Excellentes compétences en communication avec des interlocuteurs métiers et techniques Modalités pratiques Type de contrat : Freelance Localisation : Paris Remote : 2 jours par semaine Démarrage : ASAP Durée : à définir TJM indicatif : selon profil Merci de transmettre votre CV ainsi que vos disponibilités et votre taux journalier.
Freelance

Mission freelance
MLOps / Tech Lead Plateforme IA

Cherry Pick
Publiée le
CI/CD
Data governance
Data Lake

12 mois
550-610 €
Paris, France
Contexte et enjeux Notre client en assurance s’est engagé dans un projet stratégique majeur visant à accélérer et industrialiser le déploiement des cas d’usage de la Data Science et de l’Intelligence Artificielle (Machine Learning et LLM). Ce programme ambitieux repose sur la mise en œuvre de socles technologiques robustes, sécurisés et scalables : MLOps LLMOps Environnements Python industrialisés L’objectif est de fournir une plateforme mutualisée et standardisée permettant le développement, l’entraînement, le déploiement et le monitoring des modèles d’IA, utilisable par l’ensemble des équipes Data & IA du client. Dans ce cadre, notre client en assurance recherche un Consultant expert pour prendre en charge la gestion et l’animation de l’équipe dédiée à la plateforme MLOps . Ce rôle est stratégique pour la réussite du projet et la pérennisation des socles en mode RUN. Responsabilités principales 1. Management et animation de l’équipe MLOps Structurer et encadrer l’équipe MLOps (MLOps Engineers, Data Engineers, etc.) Définir les rôles et responsabilités Organiser et planifier les activités, répartir les charges et suivre l’avancement Mettre en place et animer les rituels agiles (daily stand-ups, sprint reviews, rétrospectives) Favoriser la montée en compétences et la diffusion des bonnes pratiques 2. Pilotage technique de la plateforme MLOps / LLMOps Définir l’architecture technique de la plateforme en collaboration avec les architectes et les équipes Data & IA Sélectionner et intégrer les outils et technologies MLOps / LLMOps pertinents Garantir la disponibilité, la scalabilité, la sécurité et la performance de la plateforme Assurer la conformité aux normes de sécurité, de gouvernance des données et de réglementation (RGPD) Définir, suivre et analyser les KPIs de la plateforme et des modèles déployés 3. Delivery du socle MLOps et des cas d’usage Garantir le déploiement des composants du socle MLOps industriel , en lien avec l’ensemble des parties prenantes DSI Organiser la réintégration des cas d’usage déjà en production dans le nouveau socle (compatibilité ascendante) Piloter le déploiement et la gestion opérationnelle de la plateforme MLOps, en autonomie et en coordination avec la DSI Accompagner l’industrialisation et la mise en production des cas d’usage IA 4. Roadmap, gouvernance et pilotage Définir et mettre en œuvre la roadmap MLOps / LLMOps , en adéquation avec les besoins des équipes Data & IA Piloter un portefeuille de projets techniques Gérer les budgets et l’allocation des ressources Animer les instances de pilotage (Comité Projet, Comité de Pilotage) S’appuyer sur les outils de suivi : SCIFORMA (planning et suivi budgétaire), JIRA (suivi des tâches) 5. Communication et coordination Interagir avec les équipes Data Scientists, Data Analysts, Architectes, Sécurité et Opérations Présenter l’avancement et les résultats aux parties prenantes internes (direction, métiers) Animer des ateliers de partage de connaissances et de bonnes pratiques Accompagner l’adoption de la plateforme par les équipes Data & IA Livrables attendus Organisation cible et plan de charge de l’équipe MLOps Roadmap détaillée de la plateforme MLOps / LLMOps Documentation technique et fonctionnelle Rapports d’activité et tableaux de bord de suivi Propositions d’architecture et de choix technologiques Processus et procédures MLOps / LLMOps formalisés Supports de formation et de sensibilisation
CDI

Offre d'emploi
Tech Lead DATA & IA

INFOGENE
Publiée le

50k-60k €
Neuilly-sur-Seine, Île-de-France
Tech Lead Data & IA Infogene Neuilly-sur-Seine, Île-de-France, France (Sur site) Tech Lead Data & AI Bâtissez la pratique IA d’un groupe industriel Infogene - Groupe Vulcain Construisez l’IA qui compte Infogene, filiale digitale du Groupe Vulcain (850 collaborateurs, 90M€ CA), déploie des solutions d’intelligence artificielle pour les leaders de l’énergie, du nucléaire, du pharmaceutique et des infrastructures critiques. Notre pratique IA est jeune, ambitieuse, et en pleine structuration. Nous cherchons le Tech Lead qui en deviendra le pilier opérationnel : transformer une équipe de 4 en une force de frappe de 8+, industrialiser nos plateformes, et faire le lien entre vision stratégique et réalité du terrain. Vos missions Pilotage technique (60%) • Architecturer et maintenir les plateformes IA internes : infrastructure Docker, PostgreSQL, CI/CD, Linux • Garantir la qualité technique : revues de code, bonnes pratiques, choix d’outillage • Gérer les environnements d’inférence LLM et les bases vectorielles (vLLM, Ollama, Qdrant, ChromaDB) • Fiabiliser et automatiser les pipelines de déploiement et les workflows (n8n) Management & Delivery (40%) • Encadrer et faire grandir l’équipe (4 aujourd’hui, 8+ à horizon 12 mois) • Piloter les projets en Agile/ACTE (méthodologie Infogene) sur Jira et Confluence • Chiffrer pour convaincre : estimer la charge des projets (J/H), structurer les lots, identifier les risques et produire les plans de livraison qui alimentent les propositions commerciales • Coordonner avec le CAIO : priorisation, roadmap, allocation des ressources Projets en cours • PEPPER : plateforme data consolidant les outils internes du groupe (Boond, MyActivity, SAGE…) • Jarvis : solution IA de traitement automatique de comptes-rendus de réunion
Freelance
CDI

Offre d'emploi
Architecte Data

VISIAN
Publiée le
Architecture
Data governance

1 an
40k-45k €
400-690 €
Paris, France
Descriptif du poste Le bénéficiaire souhaite s'appuyer sur une expertise en architecture data ou data modeling afin de : Accompagnement des équipes Métier et IT dans la mise en œuvre de solutions Data alignées avec la stratégie Data de l'entreprise, fondée sur les principes Data Mesh et une gouvernance renforcée. Définition et application des principes d'architecture et de gouvernance Data, en lien avec la Design Authority et le Centre d'expertise Data. Le périmètre d'intervention pourra évoluer en fonction des besoins et des domaines métier à adresser.
Freelance

Mission freelance
Data Engineer - Vannes

VISIAN
Publiée le
Apache Kafka
Apache Spark
Scala

3 ans
450-500 €
Vannes, Bretagne
Localisation : Bretagne Présence sur site minimum 3 jours par semaine Candidatures locales privilégiées Contexte Au sein d’un Chapitre Data intervenant en transverse dans l’entreprise, vous contribuez à la fabrication des cas d’usage Data portés par différentes Squads métiers. Vous évoluez dans un environnement collaboratif avec des interlocuteurs variés et participez activement aux échanges avec les membres du Chapitre présents sur d’autres sites en France. Missions Participer à la définition de l’architecture Data avec les architectes et les Squads Concevoir et développer des solutions de collecte, transformation et stockage de données issues de multiples sources Développer des pipelines Spark batch et Spark Streaming Mettre en place les tests unitaires et automatisés Déployer les solutions dans les différents environnements Assurer le suivi en production et la gestion des incidents Être force de proposition et contribuer à l’amélioration continue Environnement technique Spark (batch et streaming) indispensable SQL indispensable Scala apprécié Kafka apprécié Java et Shell appréciés Stack Hadoop Cloudera HDFS, Hive, HBase, Phoenix, MongoDB Git, Jenkins, Artifactory, XL Release ELK, Grafana Méthodologie Scrum Connaissances appréciées Outils de data visualisation tels que MicroStrategy, Power BI ou Tableau Profil recherché Expérience confirmée en Data Engineering Big Data Solide maîtrise de Spark dans un environnement Hadoop / Cloudera Capacité à évoluer en contexte transverse Soft skills attendues Autonomie Adaptabilité Bonne communication Capacité à challenger les besoins Prise de lead et force de proposition
Freelance

Mission freelance
Développeur(euse) Big Data

CAT-AMANIA
Publiée le
Apache Spark
Hadoop
Python

12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Description du poste : Dans le cadre de l'activité Big Data de notre client, nous recherchons un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour nous accompagner dans nos actions sur notre plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs.
Freelance
CDI

Offre d'emploi
Data Engineer

Codezys
Publiée le
Azure DevOps Services
Python

24 mois
47 260-53 560 €
450-500 €
Saint-Denis, Île-de-France
Poste : Data Engineer Nombre de postes : 1 Expérience : > 7 ans TJM d’achat max : 500€ Localisation : Île-de-France Deadline réponse : 10/02/2026 Démarrage : 09/03/2026, mission longue durée Type de contrat : Salarié ou Freelance 1) Descriptif de la mission La mission se déroule au sein d’une équipe dédiée au développement d’outils, de méthodes et d’industrialisation pour un acteur majeur du secteur ferroviaire. L’objectif est de soutenir un périmètre spécifique concernant un outil d’analyse de la régularité des circulations, basé sur un ensemble de flux issus du système d’information de l’opérateur. Ce périmètre comprend l’accès à des données consolidées et prêtes à l’analyse, permettant aux équipes métier d’utiliser des données fiables. La mission concerne notamment : Assurer la continuité d’alimentation des flux de données pour l’outil et l’équipe technique, Adapter, développer, corriger et déployer des processus ETL lors de migrations de données, Intégrer de nouveaux flux de données en garantissant l’absence de régression, Maintenir ces flux en production et garantir leur disponibilité, Définir des formats d’échange pour alimenter l’outil, Mettre en place des indicateurs de supervision, Accompagner l’équipe dans l’exploitation des nouveaux flux. 2) Livrables attendus Le cahier des charges précise une liste de livrables avec des délais indicatifs : Recette de l’API : Document de validation, comparaison entre anciennes et nouvelles données issues du nouveau format. Déploiement : Paquets SSIS / SQL déployés, paramétrage automatique, documentation d’intégration. Processus de rattrapage simple : Documentation, industrialisation, déploiement, artefacts dans un environnement de gestion de versions. Documentation des nouvelles données : Note explicative sur la nature et l’utilisation des nouvelles données. Format d’échange : Documentation complète du schéma d’échange de données. Déploiement des flux : Projets SSIS / SQL, documentation du chargement, déploiement en environnement de production. Processus de rattrapage complexe : Développement, déploiement et documentation complète. KPI BI : Mise en place d’un tableau de bord avec suivi de l’intégration, des erreurs et de la disponibilité des flux en production.
Freelance

Mission freelance
Chef de projet - Data Management / Framework

STHREE SAS pour HUXLEY
Publiée le

12 mois
500 €
France
🚀 Mission Freelance - Business Analyst Data (H/F) - Paris - Longue mission Nous recherchons un Business Analyst Data confirmé pour Construire une approche et planning afin de se mettre en conformité vis a vis du framework Data Management Control Standard (DM CS) et End User Computing Control standard (EUC CS) Contrainte forte du projet : Connaissance et experience dans l'implementation des disciplines DAMA : Data Governance, Data Quality, Data Traceability, Risk Reporting. Connaissance experience de la Directive BCBS 239 est une atout majeur. Connaissance de la gestion des applications EUC d'un point vu Data Management. Les livrables sont Frameworks DM CS et EUC CSderivés pour la France Approche, Roadmap, status de l'implementation, Reporting local global. 🎯 Votre rôle Activités principales attendues de la mission : - Gap analysis as-is versus nouvelle version des policies DM CS et EUC CS incluant les issues ouvertes relatives à ces deux standards - Definition des policies en application au scope et au contexte local - Accompagnement des métiers (Communication / Training) - Identification des gaps et plan d'action de remediation inscrit dans une roadmap - Execution des roadmaps, suivi et reporting de la mise en conformité à ces deux policies - Execution et coordinations des cycles de tests des controls definis dans les policies (Test of Design/ Test of Effectiveness) 🛠️ Compétences requises SQL (confirmé) Data modelling Data Governance, Data Quality, Data Traceability, Risk Reporting Connaissance BCBS 239 EUC Management Anglais professionnel & français courant 📅 Modalités Démarrage : 9 mars 2026 Fin : 31 décembre 2026 Rythme : 2 jours / semaine sur site Lieu : Paris Type : Assistance technique - Freelance 👉 Si vous êtes un expert Data avec une forte orientation conformité & gouvernance, cette mission est faite pour vous !
Freelance
CDI

Offre d'emploi
Architecte de domaine DATA (H/F)

LOMEGARD
Publiée le
Data governance
TOGAF

3 ans
40k-45k €
400-650 €
Pays de la Loire, France
Dans le cadre d’une activité d’architecture de domaine, nous recherchons un(e) Architecte de domaine DATA pour intervenir au sein d’une équipe d’architectes fonctionnels d’envergure nationale (environ une vingtaine de personnes), répartie sur plusieurs sites en France. La mission s’inscrit dans un contexte de transformation des systèmes d’information , au sein d’un grand groupe du secteur assurance / services , avec des enjeux forts autour de la gouvernance des données et des architectures Data . En tant qu’ Architecte de domaine DATA , vous interviendrez comme référent architecture auprès du domaine DATA et serez notamment en charge de : Être l’interlocuteur(trice) architecte du domaine DATA pour accompagner sa transformation Accompagner les projets du domaine dès les phases d’études de faisabilité Proposer et comparer des scénarios d’architecture IT Contribuer à la connaissance du domaine via la modélisation et la cartographie Garantir la qualité et la cohérence des référentiels d’architecture Dans le cadre des accompagnements études / projets, vous serez amené(e) à : Réaliser des travaux de modélisation sur les différents plans d’architecture : Métier Fonctionnel Applicatif Technique Rédiger des dossiers d’architecture permettant d’éclairer les choix Présenter ces dossiers en comités d’architecture Décliner l’architecture retenue en phase projet, en coordination avec : Les équipes métiers Les autres domaines IT La sécurité L’intégration en production Dans votre rôle transverse, vous assurerez également : La production et la mise à jour des cartographies d’architecture du domaine DATA La qualité et la conformité de la documentation dans les référentiels d’entreprise
Freelance

Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS

PROPULSE IT
Publiée le
Azure
BI
DevOps

24 mois
300-600 €
Nanterre, Île-de-France
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Freelance

Mission freelance
[LFR] Expert Middleware à Guyancourt - 1297

ISUPPLIER
Publiée le

10 mois
350-480 €
Guyancourt, Île-de-France
Description de la mission : Afin d’accélérer la remédiation des failles de sécurité des serveurs, la gestion de l’obsolescence et l’industrialisation des offres (Apache Tomcat, IIS, Websphere, JBoss), un(e) expert technique est recherché. La mission inclut la rédaction de procédures et d’avis techniques, ainsi que l’élaboration de feuilles de route à destination des chefs de projet et des équipes opérationnelles. La maîtrise de l’anglais est essentielle. La mission peut nécessiter des astreintes et/ou des opérations ponctuelles en HNO. Détails de la prestation En tant qu’expert(e) serveurs d’application, les principales missions sont : Tester, scripter, valider les plans d’actions et rédiger les procédures associées pour permettre aux équipes RUN et aux équipes locales de contribuer aux projets de sécurité et de remédiation des vulnérabilités ; Participer au pilotage (KPI driven) et à la priorisation des actions, être force de proposition ; Contribuer à l’évolution des processus de sécurité, notamment la mise à jour régulière des recettes Ansible permettant de configurer et durcir les serveurs d’applications et l’automatisation des scans ; Être l’acteur de référence sur les sujets de sécurité et d’obsolescence des serveurs d’applications (lifecycle, support étendu, optimisation du licensing et dépendance avec les nouveaux OS), maintenir les matrices de compatibilité ; Accompagner les projets d’optimisation de la sécurité des solutions propriétaires (IBM WebSphere et Redhat JBoss) et soutenir la stratégie open source (Apache Tomcat, Wildfly…) ; Adapter les processus de patch management (fréquence et patching 0 day) avec l’aide des équipes RUN ; Analyser les résultats des pentests et collaborer avec les équipes sécurité pour identifier les remédiations à lancer ; Assurer l’assistance et le support technique aux équipes globales et locales. Expertise technique attendue : Administration système en environnement Linux (RHEL 7, 8 et 9) ; Connaissances Ansible pour contribuer aux actions d’automatisation ; Scripting Bash, Python ; Connaissance en déploiement d’OS Linux ; Expertise en serveurs d’applications : Apache ; Apache Tomcat ; Microsoft IIS ; IBM Websphere (versions 7, 8.5) ; Redhat JBOSS (versions 6, 7 et 8) ; Wildfly ; J2EE. Les astreintes (HNO, etc…) : Oui La possibilité de renouvellement : Oui Type de projet (support / maintenance / implementation /…) : Implémentation Type de prestation (Client / Hybrid / Remote) : Client Nombre de jours/semaine ou par mois (à préciser : /s ou /m) chez le client : 3 jours / semaine
Freelance

Mission freelance
Data Engineer - Paris

Intuition IT Solutions Ltd.
Publiée le
Apache Spark
SQL

3 ans
400-410 £GB
Paris, France
Description du poste – Data Engineer Senior Dans le cadre de projets numériques transverses, vous interviendrez au sein d’une équipe data intégrée à une plateforme de traitement et de valorisation des données. Vous collaborerez étroitement avec des profils métiers et techniques afin de garantir la collecte, la structuration et l’exploitation optimale des données. Vos missions incluent notamment : Participer aux phases de conception, planification et réalisation des projets data Construire et maintenir des pipelines de données robustes et scalables Centraliser des sources de données hétérogènes Structurer et organiser les stockages de données Mettre en place des infrastructures évolutives capables de gérer des volumes importants Développer et maintenir les workflows CI/CD Assurer la sécurité, la stabilité et la performance des environnements Accompagner les équipes dans l’exploitation et le requêtage des données Contribuer aux initiatives de gouvernance data Documenter les solutions et diffuser les bonnes pratiques Réaliser une veille technologique active
4371 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous