L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 509 résultats.
Offre d'emploi
AI Engineer – IA Générative (POC Data)
UCASE CONSULTING
Publiée le
Agent IA
Azure
Github
1 an
38k-70k €
500-650 €
Île-de-France, France
Bonjour à tous 😀, Nous recrutons pour l’un de nos clients un AI Engineer expérimenté afin d’intervenir sur des sujets innovants en IA générative , dans le cadre d’un POC Data à forte valeur ajoutée . 🎯 Votre rôle --> Vous interviendrez sur la conception et le développement d’agents IA personnalisés , intégrés à l’écosystème GitHub, avec pour objectif de démontrer concrètement l’impact de l’IA générative sur des cas d’usage métiers (automatisation, génération, analyse…). Missions principales : Concevoir et développer des agents IA sur mesure (GenAI) Intégrer ces solutions dans l’écosystème GitHub (Copilot, Actions, workflows) Implémenter des cas d’usage concrets : automatisation, génération de code, analyse de données Développer des API et services backend Collaborer étroitement avec les équipes métiers pour affiner les besoins Participer à la valorisation et à la démonstration du POC Environnement technique : GitHub (Actions, Copilot, workflows) Microsoft Azure Azure OpenAI Service Python (FastAPI, scripting) APIs REST CI/CD
Mission freelance
Engineering Manager Data
HAYS France
Publiée le
Snowflake
6 mois
Nouvelle-Aquitaine, France
Notre client dans le secteur Santé recherche un/une Engineering Manager Data H/F Description de la mission: Dans le cadre de la modernisation de sa plateforme Data, le client lance un programme stratégique de migration de son Data Warehouse vers Snowflake. Ce programme s’inscrit dans une transformation globale visant à migrer des environnements legacy vers une architecture cloud scalable, améliorer la qualité, la gouvernance et l’accessibilité des données, et accélérer les usages métiers en BI, analytics et data science. L’environnement est international avec de forts enjeux de coordination entre équipes IT et métiers. Objectifs de la mission En tant qu’Engineering Manager Data, la mission consiste à assurer le pilotage technique et opérationnel de la migration vers Snowflake ainsi que le management des équipes Data. Missions principales • Cadrage et pilotage de la migration vers Snowflake • Définition de l’architecture Data cible • Management et structuration d’une équipe de Data Engineers • Mise en place des bonnes pratiques en qualité, monitoring, CI/CD et gouvernance • Accompagnement des équipes métiers dans l’adoption de la plateforme • Suivi des performances, des délais et des risques projet Profil recherché • Expérience confirmée en tant qu’Engineering Manager ou Lead Data Engineer • Expérience avérée de migration vers Snowflake, fortement souhaitée • Solide background technique en Data Engineering • Expérience en management d’équipe, avec une expérience onshore / offshore appréciée • Capacité à évoluer dans des environnements complexes et internationaux • Bon relationnel et capacité à interagir avec des interlocuteurs métiers Livrables attendus • Roadmap de migration et architecture cible • Suivi des sprints et des livraisons • Documentation technique et bonnes pratiques • Reporting projet : avancement, risques, KPI • Structuration et montée en compétence de l’équipe Compétences / Qualités indispensables : Snowflake, Data Engineering, Management d'équipe Data, Architecture Data, SQL et Python, Airflow / DBT Informations concernant le télétravail : 2 jours par semaine de télétravail Bureaux à Bordeaux
Offre d'emploi
System Architect (SAFe) H/F
DAVRICOURT
Publiée le
Safe
45k-50k €
Lille, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) System Architect (SAFe) pour l'un de nos clients du secteur IT. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes : - Définir les orientations architecturales et techniques des solutions en cohérence avec la vision business de l'ART ; - Concevoir des systèmes et sous-systèmes en environnement Agile (SAFe) avec une approche Design Thinking ; - Garantir la qualité technique des livrables du train Agile (ART) ; - Définir les exigences non fonctionnelles et les enablers techniques ; - Piloter les choix technologiques et évaluer les alternatives ; - Collaborer étroitement avec les équipes produit, développement et RTE ; - Participer aux cérémonies SAFe (PI Planning, SoS, etc.) ; - Assurer l'interface avec les parties prenantes, clients et fournisseurs ; - Accompagner les équipes dans la mise en œuvre des évolutions systèmes.
Offre d'emploi
Ingénieur de Production - Linux, Automatisation & Conteneurisation (H/F)
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
35k-55k €
Toulouse, Occitanie
• Assurer la gestion et le maintien en conditions opérationnelles des infrastructures et/ou applications en responsabilité • Participer à l'intégration et au déploiement des solutions d'infrastructure et applicatives • Superviser les infrastructures et garantir leur bon fonctionnement • Administrer les systèmes Linux et Windows ainsi que les environnements associés (physiques, virtualisés et cloud) • Rédiger et maintenir la documentation technique liée à l'exploitation et à l'administration • Identifier, analyser et suivre les risques ainsi que les vulnérabilités • Prendre en charge la gestion des incidents, leur résolution et la mise en œuvre des actions correctives • Contribuer à l'industrialisation et à l'automatisation des tâches d'administration (systèmes, middleware, applicatif) • Veiller à la disponibilité, à l'intégrité et à la confidentialité des données sur votre périmètre. L'environment technique : vous disposez de compétences dans les environnements Windows, Linux, en automatisation, virtualisation et orchestration, notamment via des outils tels qu'Ansible, Openshift, Docker, Kubernetes, Proxmox, et autres. Ce que nous vous proposons : Valeurs : en plus de nos 3 fondamentaux que sont l'audace, la bonne foi et la réactivité, nous garantissons un management à l'écoute et de proximité, ainsi qu'une ambiance familiale Contrat : en CDI. Démarrage selon vos disponibilités (nous acceptons les préavis) Localisation : prestation de client grand compte sur Toulouse Package rémunération & avantages : • Le salaire : rémunération annuelle brute selon profil et compétences • Les basiques : mutuelle familiale et prévoyance, titres restaurant, remboursement transport en commun à 50%, avantages du CSE (culture, voyage, chèque vacances, et cadeaux), RTT (jusqu'à 12 par an), plan d'épargne, prime de participation • Nos plus : forfait mobilité douce & Green (vélo/trottinette et covoiturage), prime de cooptation de 1000 € brut, e-shop de matériel informatique à des prix préférentiels (smartphone, tablette, etc.) • Votre carrière : plan de carrière, dispositifs de formation techniques & fonctionnels, passage de certifications, accès illimité à Microsoft Learn • La qualité de vie au travail : télétravail avec indemnité, évènements festifs et collaboratifs, accompagnement handicap et santé au travail, engagements RSE. Référence de l'offre : ofgxybldq6
Offre d'emploi
Expert poste de travail H/F
Les Filles et les Garçons de la Tech
Publiée le
OS Windows
Powershell
38k-40k €
Balma, Occitanie
En tant qu’Expert Poste de Travail, vous serez responsable de l’analyse, du diagnostic et de l’optimisation des performances des postes de travail Windows. Les missions sont les suivantes : • Analyser les indicateurs de performance des postes de travail • Identifier les dégradations, dysfonctionnements et irritants utilisateurs • Auditer techniquement les postes concernés pour en déterminer les causes racines • Proposer et piloter des plans d’actions correctifs et d’amélioration • Collaborer avec les équipes N3 responsables des composants techniques • Vérifier l’efficacité des remédiations mises en œuvre • Définir de nouveaux indicateurs techniques pour anticiper les problèmes • Automatiser l’analyse et la production d’indicateurs via du scripting • Produire un reporting technique (détaillé ou synthétique selon les interlocuteurs)
Offre d'emploi
Ingénieur Système Unix H/F
OBJECTWARE
Publiée le
AIX (Advanced Interactive eXecutive)
Red Hat Linux
UNIX
6 mois
70k-80k €
500-550 €
Luxembourg
Nous recherchons pour un de nos clients, spécialisé dans le domaine bancaire un Ingénieur Système Unix H/F pour une mission à pourvoir dès novembre sur le secteur du Luxembourg ville. Vous travaillerez dans l’équipe UNIX gérant : • 470 machines Red Hat Enterprise Linux 7, 8 et 9 dont 95% sont virtualisées et qui hébergent des applications critiques pour nos utilisateurs. • Les serveurs Power sous AIX 7 utilisant PowerVM/VIO (NPIV, SEA) avec environ 100 partitions gérées sous NIM hébergeant des applications et bases de données critiques (Oracle, Websphere Application Server, Swift, etc…). • Des clusters Openshift hébergeant des applications critiques. • Les baies du stockage monde « Open » (Windows/Linux). • Toute l’infrastructure de backup Commvault (software et hardware). Vos missions : • Participation en premier lieu à des projets bancaires divers visant l’installation et la mise en place d’applications bancaires, web ou non, ainsi que des migrations de version ou de plateforme. • Participation aux travaux systèmes : augmentation file système, patching OS, upgrade sur AIX, RHEL ou upgrade des applications, installation d’outils tiers, écriture de scripts, mise en place de backup, configuration de monitoring sous Nagios, maintenance quotidienne des systèmes, sécurisation des systèmes, maintenance d’applications bancaires ou middleware, etc.
Mission freelance
Architecte système Unix (H/F)
HOXTON PARTNERS
Publiée le
UNIX
6 mois
400-650 €
Lille, Hauts-de-France
Dans le cadre du remplacement d’infrastructures critiques IBM Power8 en fin de vie, nous recherchons un Architecte Système Unix pour définir et piloter la nouvelle architecture cible (Power10, x86, Cloud ou hybride), sous la responsabilité du Manager Architecture & Projets. 🎯 Missions principales Réaliser un audit de l’existant et comparer les solutions de remplacement (TCO, performance, scalabilité) Concevoir l’ architecture cible (virtualisation, stockage, cloud, LPAR…) Choisir et recommander une solution et en assumer les impacts techniques Garantir la continuité de service (stockage, supervision, sauvegarde, PRA) Piloter des POC et validations techniques Accompagner la migration et le transfert de compétences (documentation, support aux équipes) 🛠 Environnement technique Systèmes : Unix (AIX fortement apprécié, Linux RHEL/AlmaLinux) Infrastructure IBM Power : VIO, HMC, LPAR Stockage : SAN, Pure Storage, switches Dell Sauvegarde / PRA : IBM Spectrum Protect (TSM) Supervision : PRTG Bases de données : Oracle Cloud : AWS, OCI Automatisation : Shell, Python, Ansible, Terraform
Offre d'emploi
Technicien Réseau LAN-WAN/ Wi-Fi H/F
Panda Services
Publiée le
Back office
Centreon
Cisco
Paris, France
Panda Services est une Entreprise de Services du Numérique spécialisée en Ingénierie Informatique, présente sur le marché depuis plus de 20 ans, réalisant pour ses clients des prestations de haut niveau en assistance technique. Nous sommes à la recherche d’ un(e) Technicien LAN-WAN/ Wi-Fi H/F, pour l'un de ses clients basé à Paris (91) 🎯 Mission principale Assurer le maintien en conditions opérationnelles des infrastructures réseaux de l’entreprise ; intervenir principalement à distance (back-office) afin de superviser, diagnostiquer et résoudre les incidents liés aux réseaux LAN, WAN et aux équipements associés. ⚙️ Responsabilités Assurer la supervision quotidienne des infrastructures réseau (switches, routeurs, firewalls) Traiter les incidents réseau de niveau 1 et 2 Analyser et résoudre les dysfonctionnements techniques à distance Participer à la gestion des demandes de changements (configuration, déploiements, mises à jour) Administrer les équipements réseau (Cisco, Fortinet, Aruba, etc.) Assurer le suivi des tickets via outil ITSM (ServiceNow, GLPI, etc.) Rédiger et mettre à jour la documentation technique Collaborer avec les équipes support, systèmes et sécurité Escalader les incidents complexes aux équipes de niveau supérieur 🧠 Compétences requises Techniques Maîtrise des protocoles réseau (TCP/IP, DNS, DHCP, VLAN, VPN) Connaissances en équipements réseau (Cisco, Fortinet, Juniper…) Bonne compréhension des architectures LAN/WAN/Wi-Fi Expérience avec outils de supervision (Zabbix, Nagios, Centreon…) Utilisation d’outils ITSM Transverses Capacité d’analyse et de diagnostic Rigueur et sens de l’organisation Réactivité et gestion des priorités Esprit d’équipe et communication claire 🎓 Profil recherché Bac +2 à Bac +3 en informatique, réseaux ou télécommunications 1 à 3 ans d’expérience sur un poste similaire Certifications type Cisco CCNA (appréciées) Bonne maîtrise de l’anglais technique (lecture documentation)
Offre d'emploi
Data Scientist Senior — Expert IA Générative
Craftman data
Publiée le
AWS Cloud
IA Générative
Large Language Model (LLM)
12 mois
Seine-Saint-Denis, France
Data Scientist Senior — Expert IA Générative Minimum 5 ans en Data Science, dont 2+ ans en IA Générative AWS (GCP accepté si expertise confirmée) Mon client recherche un expert Data Scientist avec une forte orientation IA Générative, capable d'agir à la fois comme référent technique et comme ambassadeur de l'IA auprès des parties prenantes métiers et IT. Ce profil doit être un véritable catalyseur du changement, prêt à faire bouger les lignes et à ancrer une culture de l'IA au sein du groupe. 1. Expertise IA Générative & Data Science ▸ Définir et appliquer les méthodologies, bonnes pratiques et standards liés à l'IA Générative (LLM, RAG, fine-tuning, prompt engineering, agents autonomes…) ▸ Concevoir, développer et déployer des modèles et solutions d'IA Gen adaptés aux enjeux d'EDF ▸ Assurer une veille technologique active et identifier les opportunités d'innovation ▸ Garantir la qualité, la robustesse et l'éthique des approches IA mises en œuvre 2. Identification & Portage des Cas d'Usage ▸ Explorer et qualifier de nouveaux cas d'usage IA Générative, tant pour les métiers qu'en interne à la DSIN ▸ Challengeur les approches IA existantes et proposer des alternatives plus performantes ou innovantes ▸ Construire des preuves de concept (PoC) et accompagner le passage à l'échelle ▸ Prioriser les cas d'usage selon leur faisabilité technique et leur valeur business 3. Animation & Communication ▸ Interagir avec les acteurs clés (Directions métiers, DSI, Comité de Direction) pour présenter les travaux et défendre les orientations IA ▸ Animer des ateliers de co-construction et des sessions de sensibilisation à l'IA Générative ▸ Vulgariser des concepts techniques complexes pour des audiences non spécialistes ▸ Participer activement aux instances de gouvernance IA du groupe 4. Transformation & Acculturation ▸ Impulser une dynamique de transformation autour de l'IA au sein de la DSIN et de ses partenaires ▸ Contribuer à la construction d'une feuille de route IA ambitieuse et réaliste ▸ Mentorer et monter en compétences les équipes internes sur les sujets IA Gen ▸ Être force de proposition pour faire évoluer les pratiques et les organisations PROFIL RECHERCHÉ Compétences techniques indispensables ▸ Maîtrise avancée des techniques de Data Science : machine learning, deep learning, NLP, statistiques ▸ Expertise confirmée en IA Générative : LLM (GPT, Llama, Mistral…), RAG, agents, orchestration (LangChain, LlamaIndex…) ▸ Expérience sur AWS (SageMaker, Bedrock, Lambda…) — GCP (Vertex AI, BigQuery ML) accepté ▸ Maîtrise des langages Python et des frameworks IA/ML (PyTorch, HuggingFace, scikit-learn…) ▸ Connaissance des pratiques MLOps et de déploiement en production (CI/CD, monitoring de modèles) Savoir-être & posture attendus ▸ Excellentes qualités de communication orale et écrite, capacité à vulgariser et convaincre ▸ Leadership d'influence : capacité à embarquer sans autorité hiérarchique ▸ Curiosité intellectuelle, esprit d'initiative et goût pour l'innovation ▸ Appétence forte pour le changement et volonté de faire évoluer les pratiques dans un grand groupe ▸ Rigueur, autonomie et capacité à gérer plusieurs sujets en parallèle Expériences valorisées ▸ Expériences dans des secteurs régulés ou à forte contrainte (énergie, industrie, finance, santé…) ▸ Participation à des projets IA d'envergure avec mise en production effective ▸ Contribution à des communautés IA (publications, conférences, open source…)
Offre d'emploi
Développeur Back-End Senior orienté IA (Python / Data / API) – H/F
SMARTPOINT
Publiée le
API REST
Machine Learning
MLOps
1 an
50k-60k €
400-500 €
Île-de-France, France
Dans le cadre du développement de solutions innovantes à forte valeur métier, nous recherchons un Développeur Back-End Senior orienté Intelligence Artificielle pour rejoindre une Dev Factory IA . Vous interviendrez sur la conception et le développement d’applications intégrant des composants data et intelligence artificielle , au sein d’équipes pluridisciplinaires composées de développeurs, data engineers, data scientists et experts métier . Votre mission consistera à concevoir, développer et industrialiser des services applicatifs et des briques d’intelligence artificielle , dans un environnement technique exigeant en matière de performance, scalabilité et fiabilité . Vos missions Développement Back-End et IA Concevoir et développer des API REST et/ou GraphQL robustes, sécurisées et performantes Implémenter des services d’exposition de modèles d’intelligence artificielle (inférence, scoring, prédictions) Développer des traitements data répondant aux besoins métiers Architecture applicative et data Participer à la définition des architectures applicatives et data/IA Concevoir des solutions scalables, modulaires et maintenables Appliquer les bonnes pratiques d’architecture logicielle (SOLID, séparation des responsabilités) Gestion des flux de données Traiter et exposer des données issues de différentes sources : bases de données relationnelles bases NoSQL APIs externes pipelines de données Garantir la qualité, la traçabilité et la performance des flux Intégration et mise en production des modèles IA Intégrer les modèles développés par les équipes data Mettre en production des services d’inférence Gérer les versions des modèles et suivre leurs performances Anticiper les problématiques de dérive des modèles Industrialisation et CI/CD Contribuer au dépôt GitLab Participer aux revues de code Mettre en place et maintenir des pipelines CI/CD Automatiser les processus de tests et de déploiement Qualité et tests Développer des tests unitaires, d’intégration et de performance Garantir la fiabilité et la stabilité des services applicatifs et des composants IA Sécurité applicative et data Mettre en œuvre les bonnes pratiques de sécurité : authentification autorisation chiffrement protection des données sensibles Collaboration agile Participer aux rituels Scrum Collaborer avec les équipes data, front-end, produit et DevOps Documentation et amélioration continue Documenter les architectures, APIs, pipelines data et processus de déploiement Contribuer à la veille technologique et à l’amélioration des pratiques de développement
Mission freelance
Data Engineer
DEVIK CONSULTING
Publiée le
API REST
Azure
Databricks
1 an
400-700 €
Paris, France
Description Pour le compte de notre client grand compte, Nous recherchons Data Engineer pour intervenir sur une plateforme Data stratégique, avec un rôle clé dans la gestion des flux de données et le maintien en condition opérationnelle. Tâches principales Assurer l’ingestion et l’orchestration des données (JIRA, CRM type Salesforce/Zoho, outils métiers) Centraliser et structurer les données au sein d’un Data Lake Développer et maintenir des pipelines de données (Python, API REST) Garantir la qualité, la sécurité et l’anonymisation des données Collaborer avec les équipes métiers pour faciliter le reporting Profil Recherché Expérience confirmée en Data Engineering Maîtrise de Python et des API REST Bonne connaissance de PostgreSQL Expérience sur Azure et Databricks Sensibilité à la data visualisation appréciée Rigueur, autonomie et esprit analytique Lieu : Paris
Mission freelance
Architecte SI / Architecte d'entreprise : delivery Data & IA et exploitabilité
INSYCO
Publiée le
API
Architecture
Backlog management
18 mois
600-750 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Architecte SI / Architecte d'entreprise senior spécialisé delivery Data & IA et exploitabilité Nous étudions - prioritairement - les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/ARC/5304 dans l'objet de votre message Dans le cadre de programmes stratégiques, notre client recherche un Architecte SI / Architecte d'entreprise senior pour accompagner sa direction IT transverse. Les fondations techniques étant déjà en place, l'enjeu n'est plus de concevoir mais de : Structurer des processus opérationnels clairs Accompagner leur mise en oeuvre réelle sur le terrain Garantir des résultats concrets et durables La prestation consiste à définir, structurer et déployer les processus permettant de sécuriser les phases de delivery des sujets Data & IA et la réussite des mises en exploitation (24/7) des projets stratégiques, tout en accompagnant opérationnellement les équipes pour garantir leur adoption et leur efficacité. Vision & architecture Garantir la cohérence globale entre stratégie métier, architectures SI, plateformes et solutions Data et IA, Clouds, et contraintes d'exploitation Traduire les besoins métiers en solutions structurées Piloter les trajectoires SI (cloud, data, API, microservices) Exploitabilité & mise en service des projets stratégiques Garantir des mises en production fiables, maîtrisées et industrialisées. Processus à structurer (référentiel ITIL) Processus d'enrichissement de la CMDB (outil de gestion des actifs IT) Audit et optimisation des processus : Release Management, Change Management, Incident & Problem Management Audit et optimisation des critères de Go Live, des exigences d'exploitabilité dès la conception (Shift Left), des dispositifs de supervision, monitoring et gestion des alertes Structuration des environnements (DEV / PREPROD / PROD) Documentation et organisation du RUN Appui direct aux équipes projets sur les phases de mise en production Sécurisation des Go Live Coordination BUILD / RUN Mise en place des rituels d'exploitation Accompagnement des équipes RUN Approche orientée fiabilité, fluidité et industrialisation Data / IA - Delivery Définition d'un processus end-to-end Data / IA pour réussir le delivery des plateformes et des solutions techniques Suivi des : Backlog Data / IA, gouvernance des usages, critères de priorisation (valeur, ROI, faisabilité), standards (qualité des données, cycle de vie des modèles, monitoring) Mise en place des rituels de pilotage Appui à l'industrialisation des premiers use cases Approche pragmatique, orientée delivery et adoption rapide
Offre d'emploi
Data Analytics Engineer Senior F/H
ASTRELYA
Publiée le
Apache Airflow
BigQuery
CI/CD
Paris, France
Astrelya est un cabinet de conseil franco‑suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 expert passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission : En tant que Data Analytics Engineer Senior, vous interviendrez au cœur des enjeux de modélisation analytique, de structuration de data products et de valorisation des données dans un contexte Risques (liquidité). Vous jouerez un rôle clé dans la transformation des données transactionnelles en modèles analytiques robustes, performants et exploitables par les équipes Risques, Finance et Data. Concrètement, vous allez : · Dé‑normaliser les transactions et les transformer en modèle en étoile adapté aux usages analytiques. · Concevoir et structurer un data product permettant le partitionnement et le clustering selon les axes d’analyse métiers. · Collaborer étroitement avec les équipes Risques pour comprendre les enjeux de liquidité, les indicateurs clés et les contraintes réglementaires. · Mettre en place des pipelines de transformation fiables, documentés et industrialisés. · Garantir la qualité, la performance et la gouvernance des données exposées. · Contribuer à l’amélioration continue des workflows DataOps et des bonnes pratiques d’ingénierie analytique. · Participer à la définition des standards de modélisation et d’architecture analytique au sein de l’équipe. Votre futur environnement technique : • Google Cloud Platform • BigQuery – entrepôt de données & moteur analytique • DBT – transformation & modélisation analytique • Airflow – orchestration • DataProc – traitements distribués • Cloud SQL – stockage & bases relationnelles • DataOps, CI/CD, bonnes pratiques d’ingénierie analytique
Mission freelance
Data Gouv Senior
Nicholson SAS
Publiée le
Confluence
Data analysis
Data Engineering
5 mois
550 €
Hauts-de-Seine, France
Nous recherchons pour notre client un Data Gouv Senior capable de fédérer et de piloter des instances : Rédaction et mise à jour des documents de gouvernance Data/IA (principes, référentiels, standards). Réorganisation, harmonisation et traduction (FR/EN) du fonds documentaire. Organisation des comités CDO / Data IA : invitations, ordres du jour, supports, comptes-rendus. Production des supports de communication ((intranet client), Teams, PowerPoint) Organisation d’évènements de la filière : plénières, challenges Data Science, ateliers. Collecte et consolidation des indicateurs mensuels de la filière. Rédaction du reporting mensuel d’activité. Compétences : Gouvernance des données Pilotage transverse / PMO et organisation de comités. Excellentes compétences rédactionnelles en français et bonne maîtrise de l’anglais. Communication interne, storytelling, animation de communautés. Maîtrise Microsoft 365 (PowerPoint, Excel, Teams, SharePoint). Connaissance de Confluence, Jira. Autonomie, rigueur, sens du détail et excellent relationnel.
Offre d'emploi
Buisness analyst / DATA ( trade finance ) - Denodo
AVA2I
Publiée le
Data quality
Microsoft Power BI
1 an
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation data au sein du métier Trade Finance, vous interviendrez sur la mise en place d’un Buisness Analyste/ DATA basé sur une plateforme de virtualisation de données. L’objectif est de : Centraliser et fiabiliser les données métiers Modéliser la donnée en fonction des besoins opérationnels Distribuer la donnée via API, reporting et applications Garantir la qualité et la gouvernance des données 🛠️ Missions 🔍 Analyse & cadrage Recueillir et analyser les besoins métier (ateliers, cadrage) Rédiger les spécifications fonctionnelles et user stories 🧠 Data & modélisation Analyser les modèles de données existants Mapper et intégrer les données (data virtualisation / denodo VQL) Participer à la construction du Data Product 🤝 Support & coordination Assurer un support fonctionnel auprès des équipes de développement Faire l’interface entre les équipes IT et les métiers 📊 Reporting & BI Concevoir et développer des dashboards et rapports ✅ Data Quality & Gouvernance Définir et implémenter des règles de qualité des données Contribuer à la gouvernance des données 🧩 Compétences fonctionnelles Bonne compréhension des besoins métier Une connaissance du Trade Finance est un plus 🌟 Soft skills Rigueur et esprit analytique Curiosité et proactivité Bon relationnel et communication ➕ Atouts Expérience en environnement bancaire ou financier Connaissance d’un progiciel Trade Finance (type TI+) Expérience sur des projets data complexes
Offre d'emploi
Expert Data Engineer / DevOps
R&S TELECOM
Publiée le
Apache Kafka
Java
Kubernetes
6 mois
40k-45k €
400-500 €
Bordeaux, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre d’un programme structurant de modernisation du système d’information , nous recherchons un profil Data Engineer / DevOps senior pour renforcer une équipe existante. La mission s’inscrit au cœur du SI cible , au service de plusieurs applications critiques orientées data, intégration et services temps réel. Le poste vise à industrialiser les chaînes DevOps et à structurer les flux Data Lake dans un environnement cloud native, fortement automatisé et orienté open source . Démarrage souhaité : mai / juin Localisation : Rive gauche bordeaux, nécessite un véhicule Objectifs de la mission Le rôle est double : DevOps / Plateforme Industrialisation et sécurisation des chaînes d’intégration et de déploiement Standardisation des pratiques GitOps sur un socle Kubernetes multi‑environnements Renforcement de l’automatisation et de l’observabilité des plateformes applicatives et data Data / Streaming Accompagnement à la conception et à la standardisation des flux data temps réel Structuration d’un Data Lake orienté streaming et lakehouse Garantie de la performance, de la résilience et de la maintenabilité des flux Domaines d’intervention & compétences clés Socle Kubernetes & DevOps Orchestration : Kubernetes (Namespaces, Ingress, RBAC) GitOps : GitLab CI, Helm, ArgoCD Observabilité : Grafana, Prometheus, Loki, Tempo Sécurité CI/CD : SAST, DAST, Trivy Environnements : OpenStack Écosystème Data & Data Lake Streaming & CDC : Kafka, Debezium Processing : Spark SQL, Airflow Lakehouse : Apache Iceberg Query Engine : Trino (PrestoSQL) Stockage objet : Ceph (ou équivalent) Micro‑services & APIs Runtimes : Java / Quarkus, Python API Management : Kong Protocoles : MQTT (atout) Optimisation des performances applicatives et data Livrables attendus (exemples) Socle & automatisation Mise en place d’architectures ArgoCD (Application of Applications) Catalogue de Charts Helm industrialisés Bibliothèque de pipelines GitLab CI/CD standardisés et sécurisés Data & Streaming Provisionnement automatisé des clusters Kafka et connecteurs Debezium Configuration optimisée de Trino sur stockage objet Mise en place des DAGs Airflow pour l’orchestration des traitements Documentation & MCO Dashboards de supervision avancés Rédaction du Dossier d’Architecture Technique (DAT) Rédaction de Runbooks MCO / PRA Définition de standards techniques et bonnes pratiques cloud native Profil recherché Expérience confirmée (5 à 8 ans minimum) en DevOps, Data Engineer ou Platform Engineer Très bonne maîtrise de Kubernetes et des pratiques GitOps Expérience concrète sur des plateformes Kafka et Data Lake À l’aise dans des contextes SI complexes et structurants Capacité à travailler en collaboration étroite avec équipes de développement, architectes et chefs de projet Autonomie, rigueur, sens de l’industrialisation
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Mission à 600 km de chez moi - Frais de double résidence
- 3 semaines qu'on ne me donne pas de date de début de mission que dois-je faire
- Exercice décalé et avantage en nature
- Plateforme d'appel d'offres public scam ou non ?
- Facturation auto-entrepreneur
- Passage au réel après dépassement micro : notification URSSAF ?
5509 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois