Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 153 résultats.
Freelance

Mission freelance
Data Engineer

Publiée le
Data analysis
Dataiku
ELK

3 mois
300-550 €
Châtillon, Île-de-France
Télétravail partiel
Context La prestation s'incrit dans la mission de MCO/MCS et de développement de la solution Denodo. L'equipe centrale a la responsabilité de fournir une plateforme opérationnel et d'optimiser sont fonctionnement pour rendre le meilleur service possible aux métiers / clients. Il faut également que le prestataire soit en capacité de réalisé des vues dans la solution pour assister les projets qui souhaitent utiliser Denodo mais n'ont pas de compétences dans leur équipe. Mission Infrastructures de données : * Cartographie et documente les sources de données. * Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. * Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. * Structure les bases de données (sémantique, format, etc.). * Contribue à la gestion des référentiels de données. Intégration des données : * Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l'extérieur de l'entreprise. * Assure la supervision et l'intégration des données de diverses nature qui proviennent de sources multiples. * Vérifie la qualité des données qui entrent dans le Data Lake et s'assure de leur sécurité. * Nettoie la donnée (élimination des doublons?) et la valide pour une utilisation aval. Animation des communautés : * Anime la communauté technique qui met en œuvre les dispositifs prévus ou nécessaires à l'application de la politique de la donnée de l'entreprise. Veille technologique : * Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. * Propose des évolutions pour les infrastructures et solutions de données en place Exemple de livrables * Dossier d'architecture (ou cadre technique) des solutions (plateformes) de traitement des données. * Un data lake adapté aux besoins actuels et futurs de l'entreprise. * Une cartographie des données. * Les éléments permettant de garantir la qualité de la donnée.
Freelance

Mission freelance
Data Scientist (h/f)

Publiée le

1 mois
400-450 €
95000, Cergy, Île-de-France
Télétravail partiel
Introduction & Résumé: Le rôle de Data Scientist est essentiel pour analyser la performance des outils de prévision au sein du département de Recherche Opérationnelle, contribuant ainsi à l'optimisation des revenus de l'entreprise. Le candidat idéal possède une connaissance approfondie de la modélisation mathématique et statistique, ainsi que des compétences en Machine Learning et en Python. Principales Responsabilités: Le Data Scientist Junior aura pour mission de: Analyser la performance d’un moteur de prédiction lié à l’overbooking. Contribuer à d'autres moteurs de prédiction et d'optimisation dans le projet FIT (Freight Intelligence Techniques). Exigences Clés: Connaissance approfondie de la modélisation mathématique et statistique. Compétences en Machine Learning. Maîtrise des bonnes pratiques Python. Expérience avec les outils : Spark, Python, Git, Bash, SQL. Compréhension des environnements Unix/Linux. Bon niveau d’Anglais écrit et oral. Expérience avec GCP (Google Cloud Platform). Doctorat en Mathématiques ou en Physique. (est un plus). Autres détails: Ce poste est basé à Paris et Amsterdam, au sein du département de Recherche Opérationnelle.
Freelance
CDI

Offre d'emploi
Data Scientist

Publiée le
Google Cloud Platform (GCP)
Machine Learning

1 an
40k-45k €
400-620 €
Île-de-France, France
Télétravail partiel
Contexte La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. Elle a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateur, mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Afin d'améliorer la personnalisation de l'expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d'un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur une plateforme cloud majeure et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l'orchestration des traitements. La stack inclut aussi d'autres services de la plateforme cloud. Missions de l'équipe Créer les premiers cas d'usage en lien avec la personnalisation de l'expérience utilisateur basés sur de la recommandation utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances Prestations attendues En interaction avec les membres de l'équipe, la prestation consistera à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l'exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l'évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l'équipe
Freelance
CDI

Offre d'emploi
Data Ops

Publiée le
Apache Spark

1 an
40k-45k €
400-550 €
Quartier du Montparnasse, France
Télétravail partiel
· Déploiement et administration avancée des applications Spark, Trino ou Jupyter sur Kubernetes. · Tuning et optimisation des performances : ajustement des configurations, analyse des logs, debugging avancé, optimisation des requêtes SQL (Trino), tuning des jobs Spark. · Gestion du RUN et support applicatif : diagnostic et résolution des incidents, amélioration continue des performances, accompagnement des utilisateurs sur l’optimisation des requêtes. · Mise en place de l’approche GitOps : automatisation complète du déploiement et de la gestion des applications avec Terraform, Ansible, Git, ArgoCD/FluxCD. · Sécurisation et monitoring avancé : implémentation de métriques et alertes sur Prometheus, Grafana, Loki, gestion des accès et des logs applicatifs.
CDI
Freelance

Offre d'emploi
Administrateur Systèmes N2/N3 – Data Lake / Linux / Cloudera

Publiée le
Ansible
Apache Airflow
Linux

24 mois
Île-de-France, France
Télétravail partiel
Mission: Lieu : IDF (sud de Paris) Démarrage souhaité : Janvier 2026 Télétravail : 2 jours par semaine Astreintes : Oui Nous recherchons trois Administrateurs Systèmes N2/N3 pour intervenir sur une plateforme Data Lake de grande envergure. Vous rejoindrez l’équipe en charge de l’administration, du maintien en conditions opérationnelles et de l’automatisation des environnements Linux/Cloudera. Il s’agit d’une mission longue et techniquement exigeante, dans un environnement moderne mêlant Big Data, automatisation, scripting et ordonnancement. Responsabilités principales Administrer et exploiter la plateforme Data Lake (environnements Cloudera & Linux) Assurer le MCO/MCS des clusters (fiabilité, disponibilité, supervision) Implémenter et maintenir des pipelines d’automatisation via AWX / Ansible Rédiger et maintenir des scripts d’administration (Python, Shell, Ansible) Participer aux phases d’industrialisation, normalisation et sécurisation des environnements Gérer les accès et l’identité via IDM / FreeIPA Exploiter et optimiser les workflows sous Airflow Participer à la gestion des incidents (N2/N3), astreintes et interventions HNO Travailler en coordination avec les équipes Data, Sécurité et Exploitation
Freelance

Mission freelance
Expert Data IA Senior

Publiée le
Cloud
Deep Learning
DevOps

6 mois
560 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Cette mission, basée à Lyon avec une présence requise de deux jours par semaine sur site, vise à accompagner une organisation dans l’intégration avancée de solutions d’Intelligence Artificielle. D’une durée de six mois, du 2 janvier au 30 juin 2026, elle s’adresse à un profil Senior disposant de 5 à 7 années d’expérience et maîtrisant l’ensemble des enjeux Data et IA. Le tarif d’achat maximum est fixé à 576 euros. L’expert Data IA aura pour principale responsabilité de comprendre et d’analyser les besoins métiers afin d’identifier les opportunités de création de valeur grâce à l’IA. Il interviendra dans la conception, le développement et la mise en œuvre de prototypes et de Proofs of Concept, en évaluant rigoureusement leurs performances pour garantir leur pertinence et leur efficacité. Il devra également formuler des recommandations techniques et stratégiques pour orienter le choix des solutions IA à déployer. Les compétences attendues couvrent un large spectre : connaissance approfondie des modèles d’IA, des frameworks et des LLM, maîtrise de la programmation, du Machine Learning et du Deep Learning, ainsi que des environnements DevOps et Cloud. La capacité à communiquer clairement, à vulgariser des concepts complexes et à travailler selon les méthodologies agiles est également essentielle pour mener à bien cette mission.
Freelance

Mission freelance
Consultant SAP Advanced Data Migration

Publiée le
SAP

2 ans
400-670 €
Paris, France
Télétravail partiel
Nous recherchons, pour le compte de l’un de nos clients stratégiques, un consultant SAP expérimenté en migration de données (ECC6 vers S/4HANA). Votre mission : Vous intégrerez un projet majeur de transformation SAP et serez responsable de la migration des données critiques vers S/4HANA. Vous travaillerez directement avec le client sur un projet stratégique, bénéficiant d’un environnement dynamique et stimulant, où votre expertise sera pleinement valorisée. Profil recherché : Expérience confirmée sur SAP Advanced Data Migration and Management (ADMM) de Syniti. Maîtrise des modules SAP, notamment MM, et connaissance d’autres modules SAP est un plus. Solide expérience sur des projets de migration de données complexes, idéalement ECC6 vers S/4HANA. Anglais courant indispensable pour travailler avec les équipes internationales. Capacité à travailler en autonomie tout en collaborant efficacement avec les équipes projet et les parties prenantes.
Freelance

Mission freelance
Data Analyst - Part-time (DBT - GitLab- Looker- BigQuery)

Publiée le
BigQuery
Data analysis
Data cleaning

6 mois
350-470 €
Genève, Suisse
Télétravail 100%
Cette mission est en Mi-Temps Nous recherchons deux data analyst pour une migration de modèles DBT afin de changer une partie du sourcing de la partie principale des Datamarts. Environnement & Contexte : Principalement pour les tables Client & Transactions, mais aussi d’autres modèles (Campaign, Clienteling), nous souhaitons ne plus nous sourcer sur un Datalake central, mais sur des données préparées dans un Datamart par une autre équipe, ce qui permettra de simplifier les scripts et supprimer les transformations. Il est crucial d’assurer la consistance des Data à tous les niveaux. Une analyse de gap sur les outputs principaux (Transaction, Client) a déjà été effectuée, avec un presque alignement au niveaux du nombre de record par Primary Key, mais au cours de la migration, il y aura forcément des différences relevées sur les dimensions/mesures, que vous allez devoir analyser, investiguer et remonter. Le Data Engineer aura pour mission principales : Revoir une bonne partie des modèles DBT dans notre Datamart Client qui contient environ 45 modèles finaux (et 60 modèles intermédiaires), pour modifier le sourcing (au lieu de sources brutes, se reposer sur un Datamart qui contient déjà certains indicateurs que nous préparions de notre côté) Simplifier et supprimer les transformations du script Client pour en simplifier la maintenance, et les investigations. Test de non regression sur le modele final, pour garantir que les outputs sont ISO (ou très proches, avec investigations des écarts et remontée/échanges avec l’équipe en charge du Datamart) Validation dans les outils finaux (explores/dashboards Looker) de la consistance des chiffres. Mise à jour de la documentation des modèles (SQL, Yaml, Confluence, Data Model)
Freelance

Mission freelance
237039/Data Engineer Powercenter (Informatica), SQL Developper, Dbvisualizer Niort

Publiée le
Informatica

3 mois
380-410 £GB
Niort, Nouvelle-Aquitaine
Data Engineer Powercenter (Informatica), SQL Developper, Dbvisualizer Niort Activité : Analyse, spécification, développement, test et maintenance Outil de dev : Powercenter (Informatica), SQL Developper, Dbvisualizer Langage: SQL, PL/SQL, SGBD : Oracle, Hive Méthode : SAFE Data Engineer Powercenter (Informatica), SQL Developper, Dbvisualizer Niort Activité : Analyse, spécification, développement, test et maintenance Outil de dev : Powercenter (Informatica), SQL Developper, Dbvisualizer Langage: SQL, PL/SQL, SGBD : Oracle, Hive Méthode : SAFE
Freelance
CDI

Offre d'emploi
Data Stewart

Publiée le
Big Data
BigQuery
Cloud

12 mois
40k-48k €
400-500 €
Paris, France
Télétravail partiel
Définition du besoin : Accélération de la transformation digitale avec pour mission de devenir le média numérique de référence pour tous, gratuit, utile et adapté à chacun pour s’informer, se cultiver et se divertir ! La Direction Data est rattachée à la direction du Numérique et met en œuvre l’ensemble de la chaîne de traitement et de valorisation des données afin d’en accélérer son usage. Contribuer à la croissance des offres numériques du groupe via plusieurs plateformes en accompagnant les équipes éditoriales, produit, design et marketing (Acquisition, Réseaux sociaux, Partenariats, CRM) dans le développement d’outils de pilotage, la compréhension et la prévision des usages ainsi que l’amélioration de l’expérience utilisateurs. Au sein du pôle Data Gouvernance, rattachée au responsable du pôle, la prestation sera affectée au data domaine utilisateurs (caractéristiques socio-démographiques, consentements, abonnements…) et permettra d’être le catalyseur et le facilitateur pour améliorer l’efficience de la mise à disposition de la donnée aux utilisateurs métier. Prestations attendues : Comprendre et mettre en œuvre la stratégie data gouvernance : Gestion de la qualité des données : Recueillir les data quality rules et coordonner leur mise en œuvre Assurer une vision complète des étapes de transformation de la donnée Gérer la mise en œuvre des contrôles qualité Effectuer la mesure des écarts de qualité par rapport aux objectifs fixés Coordonner la remédiation à la qualité des données avec les différents acteurs Participer à la gestion des métadonnées : Animer le remplissage du glossaire métier en collaboration avec les data owners Veiller au respect des règles et politiques établies par les équipes data gouvernance Coordonner la mise en synergie entre dictionnaire de données et glossaire métier Participer à la politique des accès : Contribuer à garantir la sécurité des données en mettant en application la politique des accès aux données Participer à l’application des normes RGPD et jouer le rôle de facilitateur entre les différents interlocuteurs Animer et jouer un rôle moteur dans la mise en œuvre de la stratégie data gouvernance : Communiquer et accompagner : Expliquer et faciliter la compréhension de la politique de gouvernance data en place Créer une synergie collaborative entre les équipes data et les équipes métier Être en support des Data Owners Animer le Data domaine : Lister les données sensibles à mettre sous contrôle S’assurer de la mise aux normes des Data Sets du domaine
Freelance

Mission freelance
Ingénieur DataOps / SRE Data

Publiée le

5 mois
500 €
France
Objet de la prestation Le consultant interviendra pour assurer le support opérationnel et contribuer à la fiabilité, la performance et la bonne utilisation des plateformes Big Data. Missions principales Assurer le support de niveau 2 en production (PROD) sur les plateformes Spark, Airflow et Starburst. Prendre en charge la gestion des incidents , l'analyse des causes racines ( RCA ) et la résolution. Contribuer à l' optimisation des traitements Spark sur Kubernetes : tuning, configuration, dimensionnement, gestion des ressources. Optimiser et fiabiliser l' orchestration Airflow/Astronomer . Participer à la gestion des catalogues Starburst (Trino) et au suivi des performances des requêtes distribuées. Accompagner les équipes métiers pour un usage efficace, sécurisé et performant des plateformes. Maintenir et enrichir la documentation d'exploitation , procédures et guides utilisateurs. Participer à l' amélioration continue de l'écosystème : automatisation, standardisation, observabilité, fiabilité. Compétences techniques attendues Expertise en environnement Data / Production Expérience confirmée en exploitation Big Data en production . Technologies (au moins 2 maîtrisées) Kubernetes / IKS / OpenShift Apache Spark Apache Airflow / Astronomer Starburst (Trino) Compétences associées Maîtrise du support et du troubleshooting sur des services déployés sur Kubernetes (Helm charts, opérateurs…). Solide expertise en monitoring / observabilité : logs, métriques, dashboards. (Dynatrace, Kibana, Grafana…) Bonnes pratiques d'exploitation de traitements distribués. Connaissances approfondies en : Tuning Spark Profiling applicatif Gestion fine des ressources (executor, driver, mémoire, shuffle…) Compétences en scripting : Bash, Python, Ansible (appréciées). Maitrise des chaînes CI/CD : Git, Jenkins, GitLab CI… Compétences en sécurité : Hashicorp Vault Secrets , PKI, gestion des certificats. Compétences transverses Excellente capacité d'analyse et de diagnostic d'incidents complexes. Rigueur et fiabilité en environnement de production critique. Capacités rédactionnelles pour formaliser procédures, guides et rapports. Bon relationnel et capacité à accompagner les équipes métiers. Français et anglais opérationnel. Montreal Associates is acting as an Employment Business in relation to this vacancy.
Freelance

Mission freelance
Data Engineer / Développeur Talend - Niort

Publiée le
Apache Maven
JIRA
Talend

2 ans
380-480 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Pour l'un de nos clients niortais, nous recherchons un data engineer / développeur talend : · Participer à l'évaluation de la charge de travail d'analyse et de réalisation, · Contrôler la qualité des développements, · Développer et maintenir, le cas échéant, les applications informatiques, · Participer aux tests d'intégration, · Rédiger les dossiers afférents aux phases précédentes, · Respecter les normes de développement et de planification, · Participer à l'industrialisation des applications, · Participer à la formation des utilisateurs.
Freelance

Mission freelance
Ingénieur DevOps / Cloud Azure - Data & Plateforme Offline

Publiée le
Azure DevOps
Git
Helm

1 mois
400-550 €
Paris, France
Bonjour à tous, Je recherche pour le compte d'un de mes clients plusieurs DevOps. Voici les missions : Contribution fonctionnelle & technique Intégrer de nouvelles fonctionnalités issues de composants open-source et assurer la maintenance des fonctionnalités existantes. Collaborer quotidiennement avec les Data Engineers (échanges sur les cas d’usage, tests, besoins utilisateurs finaux). Infrastructure & automatisation Automatiser le déploiement d’infrastructures Cloud à grande échelle sous Azure , en particulier la gestion de clusters Azure au niveau ressource. Travailler dans une infrastructure 100% Terraform (≈45%) : définition, maintenance et optimisation des modules et stacks IaC. Utiliser Terragrunt pour organiser et orchestrer les déploiements multi-environnements. Automatiser et industrialiser le déploiement d’images Docker et de composants applicatifs au sein de clusters Kubernetes. Concevoir, maintenir et optimiser des charts Helm (≈30%) pour les différents services déployés. Maintenir et développer des scripts et utilitaires en bash (≈20%) et ponctuellement en Python (≈5%). Plateforme Data & environnement offline Déployer et intégrer des composants transverses : Ingress, Keycloak, Nexus… Automatiser et opérer les briques techniques liées aux traitements de données : GitLab, Jupyter/JupyterHub (notamment en environnement offline), Spark, PostgreSQL… Travailler dans des environnements sans accès internet , incluant la gestion interne des identités, l’intégration réseau, et la gestion complète du cycle de vie applicatif. CI/CD & qualité Utiliser la suite Azure DevOps (repos, boards, pipelines). Exécuter et superviser des pipelines CI/CD de tests et de déploiements déjà implémentés. Participer activement aux pratiques DevOps : revue de code, bonnes pratiques Git, amélioration continue des workflows. Architecture & sécurité Contribuer à l’évolution de l’architecture de la plateforme en apportant votre expertise Cloud, Kubernetes ou systèmes distribués. Assurer une veille active sur les sujets technologiques et de sécurité. Appliquer et promouvoir les bonnes pratiques en matière de sécurité des données et de la plateforme. Actualiser et structurer la documentation technique.
Freelance

Mission freelance
Data Engineer (IA/Géospatial) (H/F)

Publiée le
MLOps
Python

6 mois
300-350 €
Toulouse, Occitanie
Télétravail partiel
Notre client, spécialiste du Traitement et Analyse de données, est à la recherche de son futur Data Engineer (IA/Géospatial) (H/F) pour son site de Toulouse, dans le cadre de son activité. Intégré aux équipes du client, vous devrez : * Développer et industrialiser des pipelines et modèles IA exploitant des données géospatiales et météorologiques, dans un environnement cloud-native. ## Compétences techniques attendues * Données météo & satellites Maîtrise des formats (NetCDF, GeoTIFF, HDF5), outils Python (xarray, rasterio…), prétraitement d’images, expérience Sentinel-1/2 et données météo (ARPEGE, AROME, GFS, ERA5). * Data Engineering Pipelines ETL/ELT scalables, orchestration (Airflow, Prefect, Argo), bases de données (PostgreSQL/PostGIS, MongoDB, Snowflake), optimisation des accès. * MLOps & DevOps Déploiement de modèles (CI/CD, monitoring), outils ML/Cloud (MLflow, SageMaker, Docker, Kubernetes, Terraform), AWS/Azure/GCP. * Développement logiciel Python, frameworks web (FastAPI, Django, Flask), bonnes pratiques (tests, docs, versioning).
Freelance

Mission freelance
Directeur de Projet SI Transition numérique et SIRH

Publiée le
Budget Management
Direction de projet
Management

3 mois
400-760 €
Île-de-France, France
Télétravail partiel
1. Définition et supervision de la politique SI et numérique Élaborer et actualiser le schéma directeur des systèmes d'information, en cohérence avec la stratégie globale de l'établissement Concevoir des solutions de déploiement pragmatiques de ce schéma au regard de la taille et des ressources de l'organisation Mettre en œuvre et suivre la bonne conduite des projets Garantir l'adéquation du SI avec les besoins des directions métiers Construire et piloter le budget de la direction Être force de propositions pour simplifier, sécuriser et moderniser les usages numériques 2. Management opérationnel des projets SI et de la continuité Administrer le SI et veiller à son bon fonctionnement quotidien Piloter et gérer directement, le cas échéant les relations avec les prestataires (hébergeurs, éditeurs, mainteneurs) et fournisseurs, en veillant au suivi rigoureux des règles de l'achat public Garantir la maintenance, la supervision, la sauvegarde et la sécurité des systèmes Assurer une veille technologique et intervenir en appui technique en cas d'incident majeur ou d'urgence Piloter et mettre en œuvre les investissements en équipements informatiques et numériques 3. Évolution des applications cœur de métier Faire évoluer les fonctionnalités de l'application cœur de métier en adéquation avec les processus et les besoins métier, et contribuer ainsi à l'atteinte des objectifs stratégiques Intégrer les adaptations nécessaires pour développer l'interopérabilité des données avec les différents partenaires, garantir la conformité et la qualité des échanges de données Soutenir le pilotage de la performance et la démarche d'évaluation d'impact à travers une stratégie données globale, et des outils et des process innovants Explorer et proposer des modalités d'intégration de nouvelles technologies, comme l'intelligence artificielle, au service des collaborateurs et de leurs missions 4. Pilotage et gestion des projets SI / transformation numérique Soutenir la démarche d'efficience en assurant la disponibilité d'applications et de processus adaptés aux besoins des fonctions supports (notamment RH et finances) Planifier, conduire et suivre les projets SI prioritaires : SIRH, logiciels métiers Coordonner l'ensemble des acteurs internes et externes Assurer la livraison des projets dans le respect des budgets et des délais Veiller à la production de la documentation fonctionnelle et technique Être en capacité de gérer directement certains chantiers techniques 5. Sécurité et conformité du SI Assurer la robustesse, la résilience et l'optimisation du SI Définir et appliquer la politique de sécurité des systèmes d'information Veiller à la conformité du SI avec la réglementation RGPD Actualiser et mettre en œuvre la politique de gestion des risques cyber et data Garantir la fiabilité, la confidentialité et l'intégrité des systèmes d'information Veiller à la conformité réglementaire et à la cybersécurité 6. Animation des équipes et supervision des relations avec les utilisateurs Encadrer et animer l'équipe (composée d'un chef de service, de chefs de projet, d'administrateurs réseau et de techniciens) Accompagner les utilisateurs dans l'appropriation des outils, promouvoir une culture numérique partagée
CDI
Freelance

Offre d'emploi
Business Analyst Assurance (H/F)

Publiée le
Business Analyst

2 ans
40k-71k €
400-550 €
Île-de-France, France
Télétravail partiel
En tant que Business Analyst Assurance , vos missions seront les suivantes : Recueillir et analyser les besoins des métiers (souscription, gestion, sinistres, indemnisation, finance, conformité) Rédiger les spécifications fonctionnelles et les user stories Participer à la conception des solutions fonctionnelles en lien avec les équipes IT Accompagner les métiers dans la priorisation des besoins et la définition des processus cibles Contribuer aux projets de transformation digitale et d’évolution du SI Assurance Participer aux phases de tests (recettes fonctionnelles, UAT) et à la validation des livrables Assurer le suivi des anomalies et des évolutions Rédiger la documentation fonctionnelle et assurer le support aux utilisateurs Animer des ateliers métiers et comités de suivi
6153 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous