Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 505 résultats.
Freelance
CDI

Offre d'emploi
Architecte Cloud GCP & DevOps

Publiée le
Google Cloud Platform (GCP)
Terraform

2 ans
Paris, France
Télétravail partiel
Responsabilités principales1. Ingénierie de la Landing Zone Concevoir, faire évoluer et maintenir les briques d'infrastructure GCP (IAM, réseau, sécurité, compute, services managés). Déployer et maintenir des environnements multiples : production, préproduction, projets, services partagés. 2. Infrastructure as Code & Automatisation Développer des modules Terraform modulaires, versionnés et documentés. Mettre en place des pipelines CI/CD automatisés (GitLab CI), incluant tests, scans de sécurité et contrôles de conformité. Créer des scripts d’automatisation (Python / Bash). 3. Sécurisation et conformité Mettre en œuvre IAM, durcissement réseaux/VM, gestion des clés, supervision sécurité. Produire les rapports de conformité et tableaux de bord de sécurité. Garantir la traçabilité et l’auditabilité de tous les déploiements. 4. Performance et FinOps Optimiser l’allocation des ressources et les coûts cloud. Suivre les consommations et proposer des recommandations d’optimisation. 5. Documentation & transfert de compétences Produire et maintenir les modes opératoires, guides Terraform, dossiers d’exploitation. Réaliser démonstrations techniques et ateliers de transfert de compétences.
CDI
Freelance

Offre d'emploi
Consultant Oracle EBS

Publiée le
Oracle ERP Cloud

2 ans
40k-81k €
400-700 €
Guyancourt, Île-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un consultant Oracle EBS La mission consiste : - Cadrage de besoins/projets, - Recueil et analyse des besoins utilisateurs, Rédaction des spécifications fonctionnelles, - Paramétrage d’environnements et/ou de fonctionnalités, - Suivi ou réalisation des développements, - Organisation des recettes et tests associés, - Organisation de l’accompagnement utilisateur et de la conduite du changement . En marge des activités de projets/évolutions, il sera également demandé un support aux activités opérationnelles courantes de production (support utilisateur, suivi des activités de maintenance,...)
Freelance

Mission freelance
Expert informatica - Cloud Data intégration

Publiée le
Cloud
Informatica

36 mois
500-570 €
Niort, Nouvelle-Aquitaine
Installer et paramétrer les solutions Informatica PowerCenter et PowerExchange . Mettre en place les connecteurs vers différentes sources de données : DB2, Oracle, SAP, CDC . Assurer la gestion des incidents et le support aux projets . Accompagner les équipes de support au développement. Documenter les procédures d’exploitation. Participer à des projets de montée de version des solutions Informatica. Intervenir dans un environnement multi-sites (3 DataCenters) sous Linux et Windows .
Freelance
CDI

Offre d'emploi
Expert Oracle ERP Cloud - O2C

Publiée le
Oracle ERP Cloud
Oracle Fusion

6 mois
45k-52k €
450-650 €
Île-de-France, France
👥 Présentation de l’entreprise : Galula Consulting est une ESN en pleine croissance constante qui propose du conseil et de l’expertise aux entreprises sur les ERP Oracle E-business-suite , Oracle ERP Cloud et SAP .💡 Dans le cadre de notre croissance, nous recrutons un Expert O2C spécialisé Oracle ERP Cloud. Vous serez le référent fonctionnel et opérationnel du cycle Order-to-Cash. À ce titre, vous accompagnerez l’équipe O2C en tant qu’expert produit, en garantissant la fiabilité des processus, la conformité réglementaire et l’optimisation continue via Oracle Cloud. 🔹 Missions principales : • Assurer le paramétrage • Rédiger les spécifications fonctionnelles en lien avec les besoins métiers • Collaborer avec les intégrateurs locaux pour garantir la couverture des spécificités pays sans impacter le core model • Être le point de contact privilégié des key users et être garant du lien être l’équipe AMOA & Technique dans les pays concernés • Participer aux phases de GAP analysis, SETUP, tests, cut-over et VSR • Garantir la cohérence transverse de la solution Oracle sur le périmètre O2C
Freelance

Mission freelance
Développeur Back End/QA automatisation

Publiée le
Apache Kafka
API REST
AWS Cloud

2 ans
400-600 €
Paris, France
Télétravail partiel
Contexte : Notre client (secteur média) développe des produits phares, tout en collaborant avec des acteurs stratégiques comme Netflix. Avec une approche centrée sur l'innovation et l'expérience utilisateur, notre client façonne les usages numériques de demain en proposant des services performants et adaptés aux attentes d'un public toujours plus connecté. Managé par le Head of QA, en transverse des différentes équipes et accompagné par le lead QA automatisation, la mission consiste à mettre en place des tests d’intégration et UI automatisés essentiellement autour de nos produits et process liés au traitement, au stockage des vidéos et de données/métadonnées liées, entre autres pour notre projet d’intégration avec Netflix. Description détaillée : Votre rôle consistera à construire et intégrer tests et des outils de tests robustes et évolutifs pour nos produits. Vous serez notamment amené(e) à : - Créer et maintenir des mocks/stubs d’API REST et Kafka. - Mettre en place et maintenir des lancements de tests via Argo CD/ Argo Workflows - Rédiger les étapes de tests automatisés sous la forme de scripts Gherkin. - Intégrer des tests dans une architecture Java existante pour être utilisés aussi dans le cadre de tests end to end. Télétravail : 3 jours par semaine Date de début : A partir du 2 janvier 2026
Freelance
CDI

Offre d'emploi
Data Engineer

Publiée le
Dataiku
Microsoft Power BI
PySpark

1 an
40k-45k €
400-690 €
Paris, France
Télétravail partiel
Contexte du Projet Une organisation leader en solutions de financement est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Il se concentre sur la phase d'exploration des données liées au reporting réglementaire, avec un périmètre limité aux données critiques, provenant de diverses sources. L'objectif est de garantir un accès optimisé et une gouvernance renforcée pour les Data Quality Analysts (DQA). Conception et implémentation des pipelines de données Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. Suivre avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. Industrialisation et automatisation des flux de données et des traitements Mettre en place des processus d'industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l'exploration à la production, en intégrant les modèles dans des pipelines automatisés. Gestion des données et optimisation des performances Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d'architecture de stockage (raw, refined, trusted layers). Assurer la surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l'intégrité des jeux de données. Sécurité et gouvernance des données Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. Travailler en collaboration avec le Data Office pour assurer l'alignement avec les politiques et processus définis. Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées.
Freelance

Mission freelance
Senior Data Scientist IA / LLM

Publiée le
LangChain
Large Language Model (LLM)
Python

12 mois
520-550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Senior Data Scientist IA / LLM" pour un client dans le secteur bancaire Description 🚀 Le Contexte : L'ère des Agents Autonomes Dans le cadre du développement de nos solutions de nouvelle génération, nous recherchons un Data Scientist / AI Engineer capable de transformer des modèles de langage (LLM) en agents autonomes et décisionnels. Vous ne vous contenterez pas de faire des appels API simples ; vous concevrez des architectures d'agents complexes capables de raisonner, d'utiliser des outils et de gérer des workflows cycliques au sein d'un environnement Web robuste (Django). 🎯 Vos Missions : Orchestration et Architecture 1. Conception d'Agents avec LangGraph & LangChain : Développer des systèmes d'agents multi-acteurs utilisant LangGraph pour gérer des états complexes et des boucles de rétroaction (cycles). Implémenter des chaînes de traitement modulaires avec LangChain (RAG, mémoires, agents de planification). Optimiser le Prompt Engineering et la structuration des données en sortie (JSON mode, parsing). 2. Intégration et Backend (Django) : Développer les briques Backend sous Django pour exposer les capacités de l'IA via des APIs (REST / WebSockets pour le streaming). Gérer la persistance des états des agents et des sessions utilisateurs dans la base de données Django. Assurer la sécurité et l'authentification des accès aux outils LLM. 3. RAG & Knowledge Management : Mettre en œuvre des architectures de Retrieval Augmented Generation (RAG) performantes. Connecter les agents à des bases de données vectorielles (Qdrant, Pinecone, ou Pgvector) et des sources de données métiers. 4. Évaluation et Fiabilité (LLM Ops) : Mettre en place des protocoles d'évaluation pour mesurer la pertinence des agents (Frameworks type RAGAS ou DeepEval). Monitorer les coûts et les latences des appels aux modèles (OpenAI, Mistral, modèles Open Source).
CDI

Offre d'emploi
Technicien Informatique Itinérant (H/F) - GRENOBLE ( 38 )

Publiée le

24k-27k €
Grenoble, Auvergne-Rhône-Alpes
Technicien Informatique Itinérant (H/F) - GRENOBLE ( 38 ) - Grenoble Pour accompagner notre forte croissance sur nos activités de Field Services, nous recrutons un Technicien/Référent informatique Itinérant (H/F) pour intervenir sur Grenoble et ses alentours. Vous aurez pour principales missions : Qualifier, gérer et résoudre les incidents de premier et second niveau (interventions physiques) Réaliser les demandes nécessitant une intervention physique, selon les procédures en vigueur : déploiement de matériel Retail, déménagement, mise au rebus… Participer à la gestion de parc : suivi du stock, renouvellement du parc postes et périphériques… Analyser et résoudre les incidents liés à la monétique (caisse, terminaux de paiement…) et au matériel Réaliser des opérations de maintenance, réception des pièces détachées et matériels Proposer des évolutions des documentations : procédures, renseignement de la base de ticketing Coordonner les techniciens sur le site lors du déploiement Anticiper les répartitions et changements et veiller à s'adapter, en fonction et escalader au superviseur régional (ou superviseur d'astreinte si nuit) pour déclenchement d'un éventuel backup S'assurer du bon avancement des prestations et alerter la Maîtrise d'Œuvre (MOE) en cas de problème et être le point d'entrée du client (MOE) lors de la prestation en magasin S'assurer de l'atteinte de l'objectif du déploiement S'assurer du respect des process mais aussi être force de proposition pour les faire évoluer Assurer le support technique de l'équipe le cas échéant. Date de démarrage : ASAP Contrat : CDI Permis de conduire obligatoire pour des déplacements quotidiens
Freelance

Mission freelance
POT8833 - Un Data Analyste Confirmé sur Mer

Publiée le
Java

6 mois
280-400 €
Mer, Centre-Val de Loire
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Data Analyste Confirmé sur Mer. **Contexte :** Le service Modélisation des Données recrute un Data Analyst pour soutenir ses projets et la maintenance liés à la restitution et à l’analyse de données. Ce service gère le Système d'Information Décisionnel, qui repose sur un Datawarehouse alimenté par des traitements ETL et des chaînes Change Data Capture (IBM IDR, Kafka). Ce Datawarehouse est la source de données pour divers outils de reporting et de datavisualisation (Power BI, COGNOS) ainsi que pour la mise en œuvre de cas d’usage IA. **Missions principales :** Le prestataire agira sous la direction du responsable du service Modélisation des Données et ses missions incluront : - Projets de SI Décisionnels : Modélisation de données, conception de rapports, et assistance aux utilisateurs finaux. - Power BI : Point de contact technique pour les utilisateurs finaux et les Publishers de Power BI, réalisation de reportings complexes. - Migration de Dataplatform : Refonte de reporting COGNOS/Power BI vers Superset, refonte de chaînes ETL TALEND vers Dagster, et conception de datamarts. Projet en agilité. Le poste comporte une dimension technique importante ainsi qu’une forte composante relationnelle, nécessitant une analyse des besoins, leur validation, et le suivi en mode projet. Une sensibilité aux problématiques de gouvernance des données est également cruciale. **Compétences requises :** - Organisationnelles : - Suivi de projet en tant que contributeur MOE. - Collaboration avec des équipes sécurité/réseau/etc. - Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. - Savoir-être : - Capacité d’analyse : Comprendre et formuler un besoin, animer des ateliers, et identifier les impacts pour déterminer la meilleure solution. - Excellente capacité rédactionnelle. - Expérience en agilité (Kanban, Scrum). **Connaissances métier :** Une connaissance du monde des Titres et une expérience significative dans le secteur bancaire seraient des atouts supplémentaires, mais ne sont pas obligatoires. Localisation : Mer (proche d'Orleans) + Télétravail
Freelance
CDI

Offre d'emploi
Ingénier Devops basé à Lille

Publiée le
AWS Cloud
Datadog
FLUXCD

2 ans
40k-61k €
100-500 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Ingénieur Devops basé à Lille. Objectif : L'objectif de la mission sera : - d'assurer l'exploitation des applications - de répondre aux demandes d'installation des livrables fournit par notre CDS - d'aider au diagnostic lors d'incidents ou de debug - En parallèle, il participera et travaillera en partenariat avec le PO technique sur le rebuild/refactoring afin de répondre à des enjeux de scalabilité et d'optimisation des coûts de l'architecture. - d'assurer les astreintes PIV & SIDH (1 semaine par mois) La mission nécessite un réel investissement tant le projet est vaste et pluriel dans sa partie technique. Il y a beaucoup à apprendre et on sort souvent de sa zone de confort pour répondre efficacement aux exigences des clients. Livrables • Garant de la bonne application des processus de production en transverse : évolutions et créations des stacks techniques • Garant de la cohérence de bout en bout des différents environnements • Organisation et pilotage de la gestion des événements impactant la production • Porte une vision auprès du domaine sur le RUN et facilite la priorisation de sujets d'amélioration • Accompagnement des équipes sur le delivery/recette, analyse des anomalies et facilitateur sur la communication inter-domaine au sein du domaine • Pilotage les incidents majeurs • Accompagne la réalisation de ces sujets ou les porte opérationnellement en fonction des besoins Activités détaillées : - Contribuer au développement, à l'évolution et à la maintenance des outils d'industrialisation - Assurer le déploiement en environnement de préproduction et production des livrables fournit par notre CDS - Assurer le run de l'application en production (suivi de la QoS, monitoring, supervision, Incidentologies, debug et analyses) - Accompagner notre CDS dans leur intégration de livrable sous AWS - Accompagner les équipes support clients dans l'analyse et la résolution des incidents - En véritable devops, augmenter l’autonomie de l’équipe sur la partie exploitation en automatisant au maximum les processus - Dans un contexte agile, être dans un esprit d’amélioration continue. - Vous concevez et développez les outils DEVOPS adaptés au produit à délivrer en respectant les choix et les bonnes pratiques de l’entreprise. - Vous êtes référent sur l’infrastructure, les plateformes applicatives, l’usine logicielle et l’industrialisation des déploiements - Vous accompagnez l’équipe sur l’adoption des bonnes pratiques et nos outils DEVOPS
Freelance

Mission freelance
Développeur back & Sysops (H/F)

Publiée le
Angular
AWS Cloud
Entreprise Java Bean (EJB)

2 ans
450-550 €
Bordeaux, Nouvelle-Aquitaine
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur back & Sysops (H/F) à Bordeaux, France. Contexte : Conception et maintien des services qui permettent à une application de fonctionner correctement, de manière sécurisée et performante Les missions attendues par le Développeur back & Sysops (H/F) : Activités de développement (back) Build & Run, de la conception à la réalisation jusqu’au maintien en conditions opérationnelles : Analyse et conception : rédaction des documentations techniques, participation aux ateliers de conception technique du produit Développement de la solution : Conception, développement, test et déploiement de la solution Tests et qualité au fil des sprints Rituels Agile (Daily, Planning, Review, Rétrospectives…) Estimation des charges et à la planification Déploiement et Maintenance : assurer la correction des bugs et assurer la disponibilité du service Maitrise de l’usine logicielle du projet pour assurer le backup des ingénieurs sysops du projet Exigence DEV souhaitée : AWS Certified Cloud Practitioner / AWS Certified Cloud Developer
Freelance
CDI
CDD

Offre d'emploi
Expert OpenShift – Administration de Clusters (H/F) – Paris

Publiée le
Ansible
CI/CD
Kubernetes

1 an
Paris, France
Contexte : Nous recherchons un Expert OpenShift pour accompagner l’administration et l’évolution d’une infrastructure containerisée à grande échelle. Vous interviendrez au sein d’équipes techniques expérimentées pour garantir la stabilité, la performance et la sécurité des environnements OpenShift en production. 🎯 Vos principales missions : Assurer l’ administration, la supervision et le maintien en conditions opérationnelles (MCO) des clusters OpenShift. Gérer l’ évolution et l’optimisation des plateformes d’hébergement. Réaliser l’ analyse et la résolution des incidents de niveau 2 et 3 . Participer à l’ industrialisation et à l’automatisation des opérations (Ansible, scripts, CI/CD…). Apporter votre expertise et vos recommandations techniques pour améliorer la fiabilité et la performance. Assurer les astreintes et interventions en HNO si nécessaire. 🧩 Compétences techniques requises : OpenShift – Expert – impératif Kubernetes – Confirmé – impératif Linux (Red Hat / CentOS) – Confirmé – impératif Automatisation (Ansible, CI/CD, scripting) – Confirmé – impératif Anglais professionnel – impératif
Freelance

Mission freelance
Product Owner Technique

Publiée le
Amazon S3
API
AWS Cloud

12 mois
430-550 €
Paris, France
Télétravail partiel
Nous recherchons un Product Owner Technique Senior pour rejoindre une équipe spécialisée dans le Platform Engineering , en charge des services et outils orientés résilience, infrastructure et FinOps . Vous piloterez des produits essentiels à la robustesse, la performance et la maîtrise des coûts d’une infrastructure Cloud AWS. Vous travaillerez avec une équipe pluridisciplinaire (Tech, SRE, Ops) et serez le garant de la qualité, de la fiabilité et de l’évolution continue des services proposés aux utilisateurs internes (équipes de développement). Vous intégrerez également une communauté de pratique Product Management , permettant échanges et montée en compétences collectives. Missions principales1. Pilotage des produits orientés résilience / FinOps Identifier les besoins prioritaires et organiser le backlog selon la valeur apportée (User Stories techniques, Epics). Suivre la construction des services de la plateforme via les rituels d’équipe (Daily Stand-up, backlog refinement, etc.). Assurer la qualité et la fiabilité des livrables techniques. 2. Suivi des performances et indicateurs Être l’interlocuteur privilégié des équipes de développement. Suivre les anomalies et incidents pour garantir des corrections rapides post-déploiement. Co-construire et suivre les indicateurs SLO/SLI, KPI FinOps, métriques DORA et DevEx, OKRs. Proposer des améliorations basées sur les données collectées (SRE, FinOps). 3. Partage de la vision et coordination Participer aux points de suivi avec les parties prenantes (Lead Devs, Architectes, Staff Engineers, Management). Recueillir les besoins des stakeholders pour faire évoluer la plateforme. 4. Contribution à la roadmap stratégique Définir les orientations produit en lien avec la fiabilité, la scalabilité et la maîtrise des coûts. Contribuer à la proposition de valeur et aux critères de succès de la plateforme. 5. Amélioration des pratiques internes Promouvoir l’amélioration continue des pratiques (REX, benchmark des outils SRE/Cloud). Livrables Roadmap produit hiérarchisée et partagée régulièrement. Backlog d’Epics et User Stories techniques prêt à être implémenté. Tableaux de bord KPI / OKRs (SLO/SLI, coûts AWS, métriques DORA et DevEx). Documentation produit (notes de release, guides d’adoption des outils). Animation des rituels Agile avec l’Agile Master.
Freelance

Mission freelance
Expert Cyber Sécurité GenAI / LLM

Publiée le
Cybersécurité
GenAI

3 ans
670 €
Paris, France
Télétravail partiel
Nous recherchons un expert opérationnel en cybersécurité pour accompagner l’évolution d’un socle technique GenAI dans un environnement Cloud et IA. La mission consiste à sécuriser des solutions basées sur Microsoft 365, Azure Cognitive Services, Copilot, Fabric, Power Platform, Azure ML , ainsi que des plateformes data/AI (Snowflake, Databricks, MS Fabric). Périmètre de la mission Assistance sécurité sur les projets GenAI (architecture, normes, standards). Sécurisation des implémentations et usages des services Cloud & IA. Production documentaire sécurité : dossiers de sécurité, blueprints, analyses de risques, recommandations d’architecture. Revue sécurité du code et intégration DevSecOps. Déclinaison sécurité des User Stories et reporting. Environnement Agile / anglophone. Compétences techniques requises Sécurité opérationnelle Microsoft : Microsoft 365 , Azure Cognitive Services , Copilot , Fabric , Power Platform , Azure ML . DevSecOps : CI/CD sécurisés, IaC (Terraform, Bicep), Sentinel, Defender for Cloud, Purview. Sécurisation Azure : tenants, subscriptions, RBAC, MFA, Conditional Access, PIM. Clouds : MS Azure (impératif), AWS (apprécié). Scripting & automatisation : PowerShell, Python ; analyse de logs, contrôles de sécurité automatisés. Anglais opérationnel. Livrables attendus Dossiers de sécurité & blueprints (analyse de risques, contre-mesures). Exigences & spécifications sécurité dérivées des User Stories. Revue sécurité du code / recommandations DevSecOps. Chapitres sécurité dans la documentation projet (DAT, DAH, LLD/HLD). Reporting & KPI.
CDI

Offre d'emploi
Tech Lead Backend Node.js / TypeScript

Publiée le
AWS Cloud
NestJS
Node.js

50k-65k €
Île-de-France, France
Télétravail partiel
Vous rejoignez une Direction Technique stratégique et intervenez sur une plateforme de services transverse utilisée par des millions d’utilisateurs. En tant que Tech Lead Backend , vous êtes responsable du design, du delivery et de la fiabilité des services backend distribués, dans un contexte Cloud / microservices / haute charge . Votre rôle : Concevoir une architecture scalable, résiliente et performante Développer et faire évoluer les services backend (APIs, batchs, event-driven) Contribuer de bout en bout : conception → développement → tests → CI/CD → run Travailler étroitement avec DevOps, Produit, QA, SRE et Exploitation Déployer des standards de qualité : TDD/BDD, clean code, code review Mettre en place des outils d’observabilité, monitoring, alerting Optimiser la stabilité, l'efficacité & le time-to-market Vous restez hands-on tout en pilotant techniquement votre périmètre.
CDI

Offre d'emploi
un Data Analyst Senior F/H

Publiée le

55k-65k €
Neuilly-sur-Seine, Île-de-France
Télétravail partiel
Dans le cadre du développement de notre client, nous recherchons un Data Analyst Senior orienté DataViz , expert sur Power BI et disposant d’une très bonne maîtrise de Microsoft Fabric . Missions principales : Concevoir et réaliser des tableaux de bord interactifs et à forte valeur DataViz sous Power BI Transformer des données complexes en visualisations claires, impactantes et orientées décision Exploiter et modéliser les données via Microsoft Fabric Collaborer étroitement avec les équipes métiers pour comprendre les enjeux Garantir la qualité, la performance et la cohérence des rapports et modèles de données
3505 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous