Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 887 résultats.
Freelance

Mission freelance
Administrateur systeme Linux confirmé

METSYS
Publiée le
Administration linux
CentOS
Linux Debian

6 mois
400-500 €
Marseille, Provence-Alpes-Côte d'Azur
Dans le cadre de nos activités, nous recherchons un Administrateur systèmes Linux confirmé (H/F). Vous aurez pour missions : maintenir la plateforme en conditions opérationnelles, sécuriser les systèmes et les données, fiabiliser les pratiques d’exploitation et contribuer à la réduction des risques liés au legacy. Systèmes & production · Administration avancée d’environnements Linux on-premise (Debian 7/8, CentOS) · Exploitation de serveurs critiques hébergeant une plateforme PHP monolithique legacy · Gestion des incidents majeurs (diagnostic, résolution, stabilisation) · Contribution à la réduction des SPOF et à la fiabilisation des datacenters (Paris / Marseille) Bases de données (DBA Run) · Administration et sécurisation des bases de données critiques · Suivi des performances, intégrité et disponibilité des données · Mise en œuvre et fiabilisation des sauvegardes et restaurations · Contribution aux travaux PRA / PCA (préparation, tests, documentation) Sécurité opérationnelle Observabilité & fiabilité Documentation & transmission
CDI
Freelance

Offre d'emploi
Data Pipeline Analyst - NL / FR

AEROW
Publiée le
Data analysis
Data management
Data visualisation

2 ans
Bruxelles, Bruxelles-Capitale, Belgique
Attention, le poste est basé à Bruxelles, avec une présence de 2 jours minimum sur site. La mission combine analyse de données , modélisation sémantique (Linked Data) , compréhension des data pipelines et pilotage de petits projets data , en lien étroit avec les équipes métier , Data & Digital et ICT . Objectif : garantir la cohérence, l’interopérabilité et la réutilisabilité des données et livrer des analyses et dashboards exploitables. Responsabilités clés Cadrage & pilotage : recueil/analyse des besoins, définition du scope, objectifs, livrables et planning pour projets data de petite à moyenne envergure ; suivi d’avancement, coordination fonctionnelle et communication vers les parties prenantes ; respect du scope, délais et qualité. Analyse de données & pipelines : analyse des sources/flux/transformations et modèles ; contribution à la définition/optimisation des data pipelines ; identification d’axes d’amélioration (qualité, fiabilité, performance, réutilisabilité). Modélisation sémantique : conception/évolution de modèles RDF/OWL (Linked Data) pour l’interopérabilité. Livrables analytiques : réalisation d’analyses pour cas d’usage opérationnels ; développement de rapports, KPI et tableaux de bord ; validation avec les utilisateurs. Coordination transverse : interface fonctionnelle entre Business, Data & Digital et ICT ; animation d’ateliers et facilitation de la décision ; alignement avec la roadmap Data & Digital et les standards. Documentation & transfert : documentation des analyses, choix fonctionnels et modèles via Sparx Enterprise Architect ; formalisation des bonnes pratiques ; transfert de connaissances vers les équipes internes
Freelance
CDD
CDI

Offre d'emploi
Expert Data Gouvernance H/F

Avanda
Publiée le
Apache Airflow
Collibra
Databricks

12 mois
Paris, France
Nous recherchons, dans le cadre du renforcement des equipes Data Governance d'un de nos clients au rayonnement international, un.e Expert.e Data Governance. Ce poste est base a Paris. Poste ouvert au statut freelance. Au sein de l'équipe Data Governance, l'Expert.e Data Gouvernance interviendra sur l'évolution fonctionnelle et technique du Data Catalog de l'entreprise et son intégration au sein d'un écosystème data & agentic platform en pleine structuration, ainsi que sur des chantiers stratégiques tels que l'AI Governance Framework et la mise en oeuvre d'une démarche Data Quality by Design. Les missions principales Administration, configuration et développement de workflows sur le Data Catalog Collecte et priorisation des besoins utilisateurs Conception et mise en oeuvre des échanges de métadonnées avec la plateforme data (crawling, APIs, connecteurs) Synchronisation avec les équipes architecture Intégration avec le Data Quality Metrics Store Participation au programme Data Contract
Freelance
CDI

Offre d'emploi
Data Scientist Generative IA (4jrs TT) sur 92

EterniTech
Publiée le
Data science
IA Générative
Pytorch

3 mois
Hauts-de-Seine, France
Je recherche pour un de mes clients un Data Scientist Generative IA avec 4 jours TT sur 92 VOTRE MISSION** * Concevoir et industrialiser des solutions d’IA Générative (LLMs, Agents, RAG) répondant aux besoins des AI Catalysts, priorisés par le PO. * Intégrer les composants GenAI à l’écosystème existant (GenAI Core, OneAPI, Azure AI Foundry), tout en respectant les normes de sécurité et de coûts. * Définir et implémenter les architectures techniques : choix de modèles, orchestration d’agents, conception RAG, gestion des sessions. * Développer et maintenir le code (principalement Python) et les briques réutilisables (librairies de prompts, agents). * Industrialiser le déploiement : conteneurisation (Docker), Kubernetes, CI/CD, Infrastructure as Code (Terraform), et monitoring. * Mettre en œuvre des pratiques MLOps : suivi des expériences, versioning de modèles, tests de régression, validations en pré-prod. * Assurer la qualité et l’observabilité : métriques de performance, tests adversariaux, suivi des dégradations en production. * Collaborer avec le PO, le Software Engineer, les AI Catalysts et la DSI pour garantir la sécurité et l’adoption des solutions. * Contribuer à la documentation, aux templates et à la formation des équipes internes. *VOTRE PROFIL * Bac +3 à Bac +5 en informatique, data science ou équivalent. * 3 à 5 ans d’expérience en développement d’applications utilisant l’IA, avec un accent sur l’IA Générative (Agents, RAG, LLMs). * Maîtrise de Python et des bibliothèques ML/IA (PyTorch, Transformers). * Connaissances des frameworks GenAI : LangChain, LangGraph, LangFuse, et des moteurs de recherche sémantique (Qdrant, Milvus). * Compétences en architecture cloud Azure (AI Foundry, AKS, WebApp) et en conteneurisation/orchestration (Docker, Kubernetes). * Familiarité avec CI/CD et Infrastructure as Code (Terraform). * Sensibilité aux enjeux de cybersécurité et de conformité. * Rigueur dans l’ingénierie logicielle : tests, documentation et automatisation des pipelines. * Capacité à travailler en équipe et à vulgariser les concepts techniques. * Anglais professionnel (lu/écrit) ; français courant indispensable. Définition du profil DATA SCIENTIST: - En charge du développement d'algorithmes (Machine Learning et Intelligence Artificielle) pour créer de la valeur métier à partir de données (structurées, non structurées, vidéos, images, etc.). - Doit comprendre les demandes de l'entreprise et les challenger pour fournir la meilleure réponse possible. - Apporte un support à la décision sur d'éventuelles innovations, l'amélioration des performances et décisions relatives au service client. - Industrialise les projets de Data Science avec les Data Engineers. - Maintient et documente les algorithmes industrialisés (selon les rôles et les responsabilités définis par le projet).
Alternance
CDI

Offre d'emploi
Alternance - Ingénieur Data & Process Improvement Analyst - /D F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel

69001, Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Expert Data Gouvernance (H/F) – Secteur Bancaire

CELAD
Publiée le

1 an
Paris, France
Contexte Dans le cadre d’une mission pour l’un de nos clients, acteur majeur du secteur bancaire, nous recherchons un Expert Data Gouvernance afin d’accompagner la structuration et l’optimisation de la gestion des données. Vous interviendrez dans un environnement exigeant, au cœur des enjeux stratégiques liés à la qualité, la sécurité et la valorisation des données. Vos missions Définir et déployer la stratégie de gouvernance des données Mettre en place les politiques, standards et processus de gestion des données Assurer la qualité, la fiabilité et la traçabilité des données (data quality, data lineage) Piloter les dispositifs de conformité (notamment réglementaires) Collaborer avec les équipes métiers, IT et data (Data Engineers, Data Analysts, etc.) Mettre en place et animer les comités de gouvernance Définir les rôles et responsabilités (Data Owner, Data Steward…) Accompagner la conduite du changement et la sensibilisation des équipes Suivre les indicateurs de performance liés à la data gouvernance
CDI

Offre d'emploi
Ingénieur Backend Python – Data & IA (Knowledge Graph / LLM) H/F

ADSearch
Publiée le

50k-60k €
Nice, Provence-Alpes-Côte d'Azur
En bref : CDI - Ingénieur Backend Python – Data & IA (Knowledge Graph / LLM) H/F - 1jour/semaine Télétravail - Fintech - Nice (centre) - 45/55K€ Je recrute pour une Fintech qui construit un produit un peu spécial... L’objectif : prendre une masse d’informations disparates, la structurer intelligemment et permettre leur exploitation de manière fluide. Simple me diras-tu ? Tu rêves de travailler en plein centre-ville de Nice ? Tu cherches avec délectation les possibilités qu'offre l'IA (LLM, IA agentique, OpenAI, ...) ? Tu souhaites évoluer au sein d'une petite équipe ? Tu as une vision globale sur une application : architecture, performance, algo ? Très à l'aise avec les Bases de Données Graphes, Python n'a plus de secret pour toi ?! ET TOI DANS TOUT CA ? Tu interviens directement sur le cœur du système, parmi une équipe de 5 personnes. Ton quotidien ne sera pas de “brancher des endpoints”, mais plutôt de : - Concevoir des briques backend solides - Structurer des flux de données parfois complexes - Organiser et faire évoluer les modèles de données - Mettre en place des traitements automatisés - Intégrer des logiques d’enrichissement via l’IA - Faire évoluer la plateforme pour qu’elle tienne la montée en charge Tu touches à la fois à la technique pure… et à la logique métier Pas mal non ?! TON PROFIL - Tu maitrises (bien évidemment) Python - Tu es à la pointe des usages réels de modèles IA (pas seulement R&D) - Tu connais bien les services web et l'environnement Prod et Préprod - Les données : c'est ton truc ! Tu es aussi à l'aise sur BDD relationnelles que non relationnelles (technologies orientées graphes) - Les systèmes asynchrones et la conteneurisation, te sont familiers Savoir-être : - Tu as une tête bien faite : tu piges vite et agis rapidement - Tu as une bonne réflexion en termes d’architecture - Tu aimes comprendre en profondeur plutôt que survoler
Freelance

Mission freelance
POT9062 - Un Data Engineer Sénior / Big Data / Spark / Cloudera sur Paris

Almatek
Publiée le
Git

6 mois
Paris, France
Almatek recherche pour l'un de ses clients Un Data Engineer Sénior / Big Data / Spark / Cloudera sur Paris. Contexte de la mission Le projet HALO est un programme stratégique de digitalisation des parcours bancaires (vente en ligne, souscription, IA). La Direction Data met en place une plateforme Big Data pour alimenter les cas d’usage métiers à forte valeur ajoutée. Il s’agit d’un nouveau projet (build) avec des enjeux de performance, d’intégration IA et de montée en charge. L’environnement technique est centré sur un écosystème Hadoop/Cloudera on-premise. Missions principales • Participer à la définition de l’architecture Data en lien avec les architectes et la squad • Affiner les User Stories avec le PO/BA, concevoir et développer les pipelines de collecte et de stockage des données • Orchestrer les flux batch et temps réel (Spark batch + Spark Streaming) • Mettre en œuvre les tests unitaires et automatisés • Déployer le produit dans les différents environnements (CI/CD) • Garantir le bon fonctionnement en production : monitoring, gestion des incidents, optimisation • Accompagner l’équipe dans une logique d’amélioration continue de la qualité du code Environnement technique Catégorie Technologies Framework Big Data Hadoop Cloudera (requis) Traitement Spark, PySpark, Spark Streaming (requis) — Scala (apprécié) Messaging Kafka, Kafka Connect, Kafka Streams (apprécié) Langages SQL (requis), Scala, Java, Shell, Python Bases de données SQL : Hive, Phoenix — NoSQL : HBase, MongoDB DevOps / CI-CD Git, Jenkins, Artifactory, XL Deploy, XL Release Monitoring ELK Stack (Elasticsearch, Logstash, Kibana), Grafana Gouvernance RGPD, Data Lineage, Catalogage
Freelance

Mission freelance
IA Delivery Lead

ESENCA
Publiée le
Data quality
GenAI
Large Language Model (LLM)

1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : Head of IA Position dans l’organisation Le/la IA Delivery Lead pilote une équipe dédiée à la conception et à la livraison de solutions d’intelligence artificielle. Encadrement Management fonctionnel d’une équipe pluridisciplinaire : Product Owner Copilots & Agents IA Business Analyst / AMOA IA Spécialiste fonctionnel RAG / Prompt (optionnel) Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Équipes Digital / Data / IA Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, RAG, etc.) Cabinets de conseil spécialisés Mission Le/la IA Delivery Lead est responsable du pilotage de bout en bout des cas d’usage en intelligence artificielle (copilots, agents, solutions RAG), depuis leur cadrage jusqu’à leur mise en production, leur adoption et la mesure de leur valeur. Il/elle garantit la structuration des projets, la coordination des parties prenantes et la qualité des livrables, tout en assurant un impact métier mesurable. Responsabilités principales 1. Cadrage et qualification Animer les ateliers de cadrage avec les métiers Évaluer la faisabilité fonctionnelle et l’effort de delivery Définir les critères de succès (valeur, adoption, qualité, risques) Intégrer les enjeux de données, de traçabilité et de conformité 2. Pilotage du delivery Construire et piloter les plans de delivery (jalons, sprints, capacité) Coordonner les parties prenantes internes et externes Gérer les risques, dépendances et arbitrages Garantir la qualité des livrables (backlog, spécifications, décisions) 3. Recette et validation Préparer et animer les comités de validation Définir les critères d’acceptation et organiser la recette fonctionnelle Coordonner les validations finales (go / no-go) 4. Déploiement et adoption Définir la stratégie de déploiement (pilote, passage à l’échelle) Accompagner l’adoption (formation, communication, support) Mettre en place les indicateurs d’usage (adoption, fréquence, satisfaction) Organiser les boucles de feedback 5. Mesure de la valeur Suivre les gains générés (temps, qualité, réduction des risques) Piloter l’amélioration continue des solutions 6. Qualité et fiabilité Définir les standards de qualité des solutions IA Mettre en place des contrôles fonctionnels Suivre et corriger les écarts 7. Industrialisation Capitaliser sur les retours d’expérience Standardiser les méthodes et outils (copilots, agents, RAG) Contribuer à l’industrialisation des pratiques IA
Freelance

Mission freelance
Architecte CRM Salesforce (Service Cloud)

Mon Consultant Indépendant
Publiée le
CRM
Microsoft Power BI
Node.js

12 mois
500-600 €
Nantes, Pays de la Loire
Contexte : Grand acteur national du secteur des services et de la mobilité, notre client mène une transformation digitale ambitieuse visant à offrir une expérience client omnicanale fluide et performante. Dans ce cadre, la Direction Clients & Numérique recherche un Architecte CRM Salesforce pour intervenir sur un écosystème CRM structurant, au cœur des services digitaux et des applications métiers. L’environnement comprend : CRM Salesforce Service Cloud (BtoC & BtoB) Applications agents (Salesforce / Heroku) Fronts web et applicatifs connectés au CRM DataLake Azure Power BI Marketing Cloud 🎯 Missions : En tant qu’Architecte CRM, vous aurez un rôle transverse et stratégique : Analyse des releases Salesforce et études d’impacts Définition des bonnes pratiques de développement Supervision de l’architecture fonctionnelle et technique Pilotage du backlog technique CRM Identification des dépendances inter-applicatives Conception des nouvelles fonctionnalités transverses Documentation d’architecture (Confluence) Gouvernance des environnements : Gestion des métadonnées Stratégie de branches et déploiements Gestion des environnements et refresh Contrôle des versions Vous contribuerez activement à la robustesse, la qualité et la pérennité du CRM. 🛠 Compétences requises : Indispensables : Maîtrise avancée de Salesforce Service Cloud Expertise Platform Salesforce / LWC / Community Certification Salesforce Administrateur (ADX201) Expérience Agile (minimum 2 ans) Connaissances RGPD Maîtrise JIRA & Confluence Atouts : Certification Développeur Salesforce APEX, Visualforce, SOQL, Aura, LWC Développement API / Web services NodeJS / ReactJS / VueJS Heroku & Heroku Connect Marketing Cloud Power BI Azure DataLake
Freelance
CDI

Offre d'emploi
Senior IT Production Data Analyst / Incident Manager

OBJECTWARE
Publiée le
ServiceNow

2 ans
Île-de-France, France
Contexte de la mission : Dans le cadre de l’évolution de la Group Control Tower , nous recherchons un Senior IT Production Data Analyst / Incident Manager afin d’accompagner l’exploitation et la valorisation des différents modules de la plateforme. Le consultant interviendra en étroite collaboration avec les Product Owners et les équipes techniques (Réseaux, Sécurité, Flux, Développement) afin d’analyser les données de production, améliorer les performances des environnements et identifier des leviers d’optimisation basés sur l’analyse des données. Missions principales :Analyse et optimisation des environnements de production Recommander des axes d'amélioration dans l’exploitation et la valorisation des modules de la Group Control Tower Analyser les données techniques de production afin d’identifier des leviers d’optimisation Produire des analyses et dashboards permettant d’améliorer la performance des environnements Travailler avec les Product Owners afin d'améliorer l'utilisation et la performance du produit Gestion des incidents et support opérationnel : Piloter la gestion des incidents de production Assurer le suivi du cycle de vie des incidents jusqu’au rétablissement du service Coordonner les actions avec les équipes techniques (Réseaux, Sécurité, Flux, Développement) Analyser les causes racines et proposer des plans d'amélioration Gestion des changements et support aux équipes : Garantir la bonne exécution des changements en production Assurer le suivi, le reporting et la communication autour des changements Contrôler les environnements et les changements de version Intervenir en support des équipes de développement Communication et coordination : Assurer la communication auprès des Product Owners et de la hiérarchie Participer aux cérémonies Agile Produire les reportings et tableaux de bord de suivi Environnement technique Microsoft O365 SQL Outils BI / Analytics ServiceNow Dynatrace (apprécié) Outils de monitoring et d'analyse de production Analyse de données techniques de production Statistiques appliquées aux environnements IT
Freelance

Mission freelance
Data Analyst Lutte contre la fraude

ODHCOM - FREELANCEREPUBLIK
Publiée le
Data analysis
PySpark
Python

2 ans
400-580 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Localisation : Aix-en-Provence Contexte de la mission : Le présent marché spécifique a pour objet le renforcement de l'équipe de data analyste. Le profil aura pour mission de mettre en oeuvre des analyses dans le cadre de la lutte contre la fraude. Fort d'une expérience DATA, il devra prendre en compte toutes les données du SI afin d'etudier leur cohérence et leur impact dans les processus métiers sensibles." Missions : Au sein de l’équipe data dédiée au sujet, vous contribuez à la conception et à l’exploitation de dispositifs d’analyse visant à améliorer la détection des risques de fraude. Rattaché à l'équipe Analyse de la donnée, l'intervenant aura pour principales missions : - Prise en compte des données du domaine "Individu Allocataire" et assimilation de leurs impacts dans le SI - Mise en oeuvre de cas d'usage métiers orientés lutte contre la fraude par croisement des données ( ciblage , analyse de donnée ou prédiction ) - Développement et maintenance de produits DATA réutilisables - Respect des normes et bonnes pratiques au sein de l'équipe
Freelance

Mission freelance
Expert Looker BI-BIGDATA / Paris

Signe +
Publiée le
BigQuery
Looker Studio
SQL

6 mois
550-670 €
Paris, France
Bonjour, Nous recherchons pour l'un de nos clients un profil BI-BIGDATA - Support - Expert Looker. Mission : La mission consiste à accompagner les POCs de l’étude Looker (développement et accompagnement du métier dans le développement de leur POCs et formations) et apporter une expertise dans le fonctionnement de l’outil (conseil en architecture, sécurité, FinOPS) En tant qu’expert de la Data & AI Technology Platform, le profil recherché doit avoir une excellente maitrise de l’outil Looker Core (Looker Studio ne faisant pas partie du scope de l’étude) mais aussi avoir un excellent relationnel et être pédagogue car il doit être en contact avec les développeurs les utilisateurs métiers, mais aussi avec différents services au niveau IT ( Ops Architectes …). L’étude de Looker comme potentiel outil de Dataviz du groupe AF KLM est prévue de Mai 2026 – Octobre 2026. L’objectif est d’évaluer le potentiel de l’outil à répondre aux enjeux tels que les besoins métiers sur l’autonomie pour les analyses adhoc, les demandes croissantes sur l’IA (conversational analytics), le remplacement des outils comme SAP BO ou Spotfire… dans le contexte du projet Data Move To Cloud. La maitrise de Looker Core est indispensable. La maitrise du SQL et GCP – Big Query est aussi importante. La maitrise de Power BI est un plus.
Freelance

Mission freelance
Expert Looker BI-BIGDATA / Toulouse

Signe +
Publiée le
BigQuery
Looker Studio
SQL

6 mois
550-600 €
Toulouse, Occitanie
Bonjour, Nous recherchons pour l'un de nos clients un profil BI-BIGDATA - Support - Expert Looker. Mission : La mission consiste à accompagner les POCs de l’étude Looker (développement et accompagnement du métier dans le développement de leur POCs et formations) et apporter une expertise dans le fonctionnement de l’outil (conseil en architecture, sécurité, FinOPS) En tant qu’expert de la Data & AI Technology Platform, le profil recherché doit avoir une excellente maitrise de l’outil Looker Core (Looker Studio ne faisant pas partie du scope de l’étude) mais aussi avoir un excellent relationnel et être pédagogue car il doit être en contact avec les développeurs les utilisateurs métiers, mais aussi avec différents services au niveau IT ( Ops Architectes …). L’étude de Looker comme potentiel outil de Dataviz du groupe AF KLM est prévue de Mai 2026 – Octobre 2026. L’objectif est d’évaluer le potentiel de l’outil à répondre aux enjeux tels que les besoins métiers sur l’autonomie pour les analyses adhoc, les demandes croissantes sur l’IA (conversational analytics), le remplacement des outils comme SAP BO ou Spotfire… dans le contexte du projet Data Move To Cloud. La maitrise de Looker Core est indispensable. La maitrise du SQL et GCP – Big Query est aussi importante. La maitrise de Power BI est un plus.
CDI

Offre d'emploi
Consultant DataOps / Administrateur Hadoop

Craftman data
Publiée le
Ansible
CI/CD
Docker

La Défense, Île-de-France
Dans le cadre de ses projets Big Data internes, notre client recherche un Consultant DataOps & Administrateur Hadoop confirmé , intégré à l’équipe BDP (Big Data Platform) . Le consultant interviendra sur le déploiement, l’industrialisation, l’exploitation et le maintien en condition opérationnelle de clusters Big Data personnalisés, basés sur la TOSIT Data Platform (TDP) , au service des projets data et métiers. 🎯 Rôle et responsabilités 1. Déploiement & industrialisation des clusters Big Data Déploiement automatisé de clusters via pipelines Jenkins Installation et configuration des composants Hadoop via Ansible Adaptation des architectures selon les besoins projets (sécurité, performance, capacité) Contribution aux pratiques CI/CD et Infrastructure as Code Déploiement et administration du TDP Manager Mise en place de Hue pour les environnements Datalab 2 . Administration avancée de la stack Hadoop / TDP Le consultant est responsable de l’installation, la configuration et l’exploitation de : Sécurité & identités : OpenLDAP Kerberos Ranger (politiques de sécurité) Stockage & calcul distribué : HDFS (baie Huawei) Hadoop (YARN, services core) Traitement & accès aux données : Spark Hive Services transverses : ZooKeeper PostgreSQL Responsabilités associées : Gestion des dépendances inter-services Cohérence des versions Optimisation des performances et de la stabilité Résolution des incidents complexes 3. Provisionnement & automatisation des environnements Provisionnement de VM sous VMware Préparation des prérequis systèmes (OS, réseau, stockage) Automatisation via Ansible et scripts Bash Gestion des environnements DEV / RECETTE / PROD 4. Observabilité, supervision & anticipation Mise en œuvre et maintien de la stack d’observabilité : Prometheus Alertmanager Loki / Promtail Grafana Définition des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des clusters Hadoop Support aux équipes projets et utilisateurs Datalab Gestion des incidents, demandes d’évolution et correctifs Montées de version Suivi de capacité (CPU, RAM, stockage) Rédaction et mise à jour de la documentation technique 🤝 Interaction & posture attendue Participation active aux rituels d’équipe Coordination avec : Équipes infrastructure Équipes projets data / métiers Référents sécurité Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme Forte capacité de communication transverse 🧠 Compétences clés attendues Techniques Expertise Hadoop / Big Data on-prem Solide expérience DataOps / DevOps Maîtrise de : Jenkins, GitLab CI/CD, SonarQube Ansible, Bash VMware, Docker Stack d’observabilité (Prometheus, Grafana, Loki) Méthodologiques & soft skills : Rigueur et sens de la qualité Forte sensibilité aux enjeux de sécurité Capacité d’anticipation (supervision, performance, capacité) Autonomie et esprit d’équipe Aisance dans des environnements complexes et critiques ⚠️ Points de vigilance Forte interdépendance des composants Hadoop Exigences élevées en matière de sécurité (Kerberos, Ranger) Enjeux de performance et de disponibilité Nécessité d’une coordination transverse permanente
Freelance

Mission freelance
Formateur / Expert IA

ARGANA CONSULTING CORP LLP
Publiée le
Agent IA
Chatbot
Microsoft OneDrive

12 mois
600-700 €
Guyancourt, Île-de-France
L’équipe IT du secteur Construction structure actuellement son cadre de travail autour de l’IA selon 4 piliers : gouvernance, développement de solutions, définition du cadre agentique et animation/capitalisation. Le besoin actuel s’inscrit dans l’animation et l’acculturation des collaborateurs aux outils IA internes, incluant Copilot et un chatbot interne basé sur ChatGPT. Mission Principale : Accompagner le changement et promouvoir l’usage des outils IA au sein des équipes, en favorisant la culture IA et la collaboration entre métiers et IT. Responsabilités : Évangéliser et acculturer les collaborateurs aux outils IA internes (Copilot, Chatbot interne, outils Microsoft 365). Animer des communautés, ateliers et sessions de partage pour diffuser les bonnes pratiques IA. Capitaliser et diffuser les connaissances liées aux projets IA. Former et accompagner les équipes au changement (Change Management).
3887 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous