Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 824 résultats.
Freelance

Mission freelance
Tech Lead Data & Viz - Oxygen

emagine Consulting SARL
Publiée le
DBT
Microsoft Power BI
Snowflake

3 ans
Île-de-France, France
Contexte de la mission Nous recherchons un Tech Lead Data (Snowflake/dbt) & Power BI pour piloter la delivery technique de produits data et solutions BI : définition des standards, revue de code, CI/CD, qualité, performance et gouvernance (incl. RLS). Vous serez responsable de la chaîne Snowflake → dbt → modèle sémantique → Power BI, de l’industrialisation et du run (incidents/post-mortems), tout en mentorant l’équipe. ❖ Tech Lead Data & Viz pour l'équipe DAAS ❖ Expertise Snowflake/Azure Data Factory ❖ Aide au cadrage technique sur les initiatives et projets du périmètres. ❖ Expertise Power BI sur le périmètre Regions : best practices à rediger, template, etc ❖ Faire monter en compétences une ressource France et une ressource Indec sur la partie Report Builder Objectifs et livrables Modèles data & datamarts Snowflake (tables / vues / conventions) + projet dbt (modèles, tests, documentation). Pipelines industrialisés (orchestration, CI/CD, contrôles qualité, runbooks). Modèle sémantique & rapports Power BI, avec standards performance/gouvernance (RLS, métriques). Standards de connexion Power BI ↔ Snowflake (guides, templates, paramètres).
CDI

Offre d'emploi
Expert Data / IA – Prévision des ventes H/F

DAVRICOURT
Publiée le
Intelligence artificielle

50k-55k €
Arras, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Expert Data / IA – Prévision des ventes pour l'un de nos clients. Vous interviendrez sur un projet stratégique sur site à proximité d'Arras ou en full remote. À ce titre, vos missions quotidiennes seront les suivantes : - Analyser les mécanismes actuels de prévision des ventes et les sources de données existantes ; - Évaluer la qualité, la structure et la fiabilité des données (ERP, historiques, tables métiers) ; - Identifier les variables clés influençant les ventes (saisonnalité, contraintes logistiques, etc.) ; - Concevoir et développer des modèles de prévision (statistiques et machine learning) ; - Tester, comparer et optimiser les modèles en fonction des spécificités métiers ; - Industrialiser les modèles (automatisation, intégration SI, pipelines data) ; - Structurer les flux de données et garantir la robustesse des solutions ; - Mettre à disposition des outils de restitution et faciliter leur adoption par les équipes métiers ; - Accompagner les équipes et proposer des axes d'amélioration à fort impact business.
Freelance

Mission freelance
INGENIEUR DATA BI - CLOUD AZURE

PROPULSE IT
Publiée le
Azure
BI
Cloud

24 mois
200-400 €
Paris, France
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Freelance

Mission freelance
Data Platform Engineer (Elastic / OpenSearch / Iceberg / Kubernetes)

EBMC
Publiée le
Elasticsearch

3 mois
400-480 €
Paris, France
Nous recherchons un Data Platform Engineer spécialisé dans les technologies Search , Data Lakehouse et Cloud Native . Le candidat contribuera à la conception, la mise en place et l’industrialisation de solutions basées sur ElasticSearch / OpenSearch , Apache Iceberg et des environnements Kubernetes . Le rôle comporte une forte dimension POC , incluant l’évaluation de nouvelles approches techniques, l’intégration de composants dans des architectures distribuées, ainsi que l’automatisation du provisioning via Ansible . Le poste nécessite une réelle curiosité technique, une capacité à apprendre rapidement et une motivation à travailler sur des sujets innovants et structurants pour la plateforme Data de l’entreprise.
Freelance

Mission freelance
Lead Data Engineer - Financial

Phaidon London- Glocomms
Publiée le
AWS Cloud
DBT
Git

6 mois
400-550 €
Paris, France
Piloter l'ingénierie des données de bout en bout sur Snowflake, dbt et SQL, de l'ingestion et la transformation des données sources jusqu'aux jeux de données analytiques prêts pour la production. Concevoir, implémenter et maintenir des modèles de données évolutifs et alignés sur les besoins métiers, en garantissant la cohérence, la réutilisabilité et la performance pour de multiples cas d'utilisation d'analyse et de reporting. Assurer des normes d'ingénierie élevées, notamment en matière de qualité du code, de tests, de documentation et de revues de code par les pairs, tout en promouvant activement les bonnes pratiques au sein de l'équipe. Fournir des jeux de données optimisés pour Tableau et compatibles avec la BI, permettant un reporting en libre-service fiable et des informations exploitables pour les parties prenantes. Agir en tant que contributeur technique senior, en assumant progressivement des responsabilités de leadership technique, notamment : - Encadrer et soutenir les ingénieurs de données juniors et intermédiaires. - Conseiller sur les décisions relatives à l'architecture et à la modélisation des données. - Être le référent technique pour les initiatives axées sur l'analyse.
CDI

Offre d'emploi
Data Analyst Technique H/F

█ █ █ █ █ █ █
Publiée le

Nanterre, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Expert / Lead tech IA & Data

CAT-AMANIA
Publiée le
Agent IA
Azure Data Factory
VBA

3 ans
Lyon, Auvergne-Rhône-Alpes
- S’approprier l’écosystème CDOC, comprendre les risques et les enjeux liés à la refonte de CDOC - Comprendre la trajectoire cible de CDOC (exposition applicative IA, APIs, découplage) - Recenser et qualifier les cas d’usage IA autour des documents CDOC en collaboration avec les parties prenantes - Identifier et comprendre les mises en œuvre existant de l’IA - Travailler dans le respect des process et méthode de travail de CATS (performance, coût et qualité IA, sécurité et gouvernance) - Travailler avec les architectes CATS et CAGIP pour définir l’architecture cible - Animer les ateliers de cadrage techniques IA - Documenter l’ensemble des choix et arbitrages techniques Document de cadrage de l'architecture cible, définissant les choix techniques (chunking, embedding, vectorisation), la gouvernance, la sécurité et le cycle de vie documentaire, afin de garantir une solution cohérente, maîtrisée et industrialisable, prête à être mise en œuvre. sécurisé et partagé permettant d’exposer les documents CDOC aux usages d’Intelligence Artificielle.
Freelance
CDI

Offre d'emploi
SENIOR Data engineer MSBI Python Azure (7-8 ans minimum)

Digistrat consulting
Publiée le
Azure Data Factory
Azure DevOps
Microsoft SSIS

3 ans
50k-65k €
500-580 €
Paris, France
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
CDI
Freelance

Offre d'emploi
Tech Lead Data & BI (H/F)

1G-LINK CONSULTING
Publiée le
PowerBI
Snowflake

8 mois
Île-de-France, France
Contexte Dans le cadre du développement de ses activités Data & Analytics, notre client renforce ses équipes avec un(e) Data & BI Tech Lead. Vous interviendrez sur des projets stratégiques impliquant des sources de données variées (ERP, CRM, applications métiers), avec pour objectif de structurer les modèles de données, industrialiser les pipelines et garantir la qualité des solutions BI. Vous jouerez un rôle central de référent technique, en accompagnant les équipes Data Engineers et BI Engineers. Missions Traduire les besoins métiers en solutions techniques Concevoir les modèles physiques de données dans Snowflake Définir les choix de modélisation, d’intégration et de transformation Accompagner les Data Engineers sur les pipelines data Encadrer les BI Engineers sur les développements Power BI Promouvoir les bonnes pratiques (qualité, performance, maintenabilité) Mettre en place des pipelines robustes et automatisés Garantir la documentation et la réutilisation des patterns Déployer les pratiques CI/CD et standards de développement Superviser la conception des datasets et rapports Power BI Assurer la performance et la cohérence des solutions livrées Sécuriser les choix techniques sur les sujets sensibles Accompagner la montée en compétence des équipes Assurer le transfert de connaissances Collaborer avec des équipes distribuées (international) Compétences techniques Snowflake Power BI (modélisation, datasets, performance) Data modeling Pipelines data & automatisation Airflow / Astronomer GitHub & CI/CD Connaissance de sources type ERP / CRM (SAP, Salesforce) Expérience en environnement Azure Contexte
CDI
Freelance

Offre d'emploi
AI ENGINEER - DATA SCIENTIST

SMILE
Publiée le
Data science
Pilotage
Python

6 mois
Paris, France
Au sein de la DSI Corporate d’un grand groupe bancaire, le département Développements Tactiques de la direction Fast Delivery Solutions recrute un Expert Leader Data & IA . Cette direction a pour but de mettre en place des solutions rapides au service de l'ensemble des directions métiers et des fonctions supports, en réponse à des besoins ponctuels ou pérennes. En lien avec les DSI métiers, elle en assure la maintenance et participe à leur éventuelle intégration dans le SI. Pour ce faire, elle met au service des filières métiers une équipe de proximité multi solutions afin de les aider dans leurs travaux ponctuels, la réalisation de POC (Proof Of Concept), de reportings ou bien encore l’automatisation de tâches récurrentes. La mission se situe au sein du département Développements Tactiques qui a pour mission de : Développer des outils en mode commando et en proximité directe avec le métier. Mettre en œuvre des solutions faisant appel à de l’IA générative pour répondre à des besoins métier. Accompagner l’industrialisation de ces solutions dans le parc applicatif des DSI filières. Étudier la possibilité de mise en œuvre de solutions innovantes, au travers d’une veille technologique et d’études d’opportunités. Participer à des évènements et animations de démo ou d’ateliers autour de l’IA ou de la data. L’équipe, actuellement constituée de 19 membres (Data Engineers, Data Scientists et Développeurs FullStack), fonctionne entièrement en mode agile et en proximité avec les métiers. Jeune, dynamique, motivée et très proactive, l’équipe valorise l’entraide et la bonne ambiance. Le candidat devra donc avoir la personnalité permettant de conserver cette dynamique intacte. Les soft skills sont donc autant essentielles que les compétences techniques : bon communiquant, motivé, force de proposition et sociable. Compétences techniques déjà présentes dans l’équipe : Développement autour de l’IA Générative. Développement Python / Pycharm. Développement Front Angular. Développement de cas d’usage IA générative à destination du business. Développement PySpark / Spark / Scala. Connaissance des plateformes Cloud. Mise en œuvre de workflows sous Alteryx. La mission : L’équipe se voit confier un nouveau programme visant à mettre en œuvre un ensemble de Use Cases faisant appel à de l’IA générative ou consistant à automatiser des traitements. Pour faire face à ce nouveau programme, nous souhaitons renforcer nos compétences avec un AI Engineer confirmé Data & IA . Principales missions : Innovation et réalisation de POCs : assurer la faisabilité technique des cas d’usage, développer des POCs autour de projets IA générative, proposer des solutions innovantes (LLM, prompts, RAG, traitement de données complexes). Industrialisation : en collaboration avec la production applicative et les contributeurs DSI, industrialiser les sujets dont les POCs s’avèrent concluants. Expertise Data & IA Générative : leader techniquement les projets, en s’appuyant sur les technologies internes (plateforme cloud, outils IA, modèles de langage type Gemini). Force de proposition : identifier des axes d’amélioration et proposer des solutions innovantes. Partage de connaissances : contribuer à la montée en compétences collective au sein de l’équipe. Suivi des sujets : assurer une communication claire et synthétique au responsable de l’équipe et aux Product Owners.
Freelance

Mission freelance
INGÉNIEUR(E) RÉSEAU & SÉCURITÉ CONFIRMÉ(E)

Craftman data
Publiée le
Ansible
Azure
Check Point

3 mois
320-710 €
Le Havre, Normandie
MISSIONS PRINCIPALES 1. Audit et consolidation de l'existant (prioritaire) Réaliser un audit complet de l'architecture réseau et sécurité : cartographie des flux, segmentation réseau, politique de sécurité, configuration F5 et Check Point Valider et mettre à jour les documentations techniques, schémas de flux applicatifs et matrices de filtrage Réviser et proposer des amélioriations des configurations load balancing F5 (LTM, GTM, ASM/WAF) : VIPs, pools, health checks, SSL o]loading, iRules Réviser et proposer des amélioriations des configurations firewalls Check Point : règles de filtrage, NAT/PAT, VPN site-to-site et remote access, haute disponibilité ClusterXL Analyser les configurations BGP (annonces, policies, route-maps, geo-clusters DRP) et connectivités Azure ExpressRoute Identifier les vulnérabilités, points de fragilité et non-conformités, formuler des recommandations correctives priorisées 2. Transfert de compétences et accompagnement des équipes (prioritaire) Travailler en étroite collaboration avec les responsables d'infrastructure et l'équipe sécurité pour le transfert de connaissances Standardiser et documenter les configurations réseau/sécurité : runbooks MCO (Maintien en Condition Opérationnelle) / MCS (Maintien en Condition de Sécurité), procédures d'exploitation, guides de dépannage Former les équipes internes sur les bonnes pratiques d'exploitation F5 et Check Point 3. Accompagnement transformation microservices Contribuer à la définition de l'architecture réseau et sécurité pour la plateforme microservices cible Concevoir les patterns de sécurisation : segmentation réseau (East-West), service mesh (mTLS), ingress/egress, micro-segmentation Définir les politiques de filtrage, stratégies de load balancing applicatif, WAF et protection DDoS pour les services conteneurisés Accompagner les architectes sur les choix technologiques (ingress controllers, service mesh, network policies Kubernetes) Intégrer les principes de sécurité Zero Trust et defense-in-depth dans l'architecture microservices COMPÉTENCES TECHNIQUES REQUISES Obligatoires F5 BIG-IP : maîtrise confirmée LTM (load balancing), GTM (GSLB), ASM/Advanced WAF, configuration avancée VIPs/pools/nodes, SSL o]loading, iRules/iApps, haute disponibilité et monitoring Check Point : expertise firewalls (R80.x/R81.x), SmartConsole, règles de filtrage avancées, NAT/PAT, VPN (site-to-site, remote access), ClusterXL, logs et troubleshooting Routage et switching : LAN/WAN, protocoles BGP, OSPF, MPLS, segmentation VLAN/VRF, notions de SD-WAN, Azure networking : ExpressRoute, VNet, NSG, Azure Firewall, Application Gateway, Tra]ic Manager, Azure Monitor Architecture DRP : geo-clusters, réplication Appréciées Firewalls Fortinet, Palo Alto Network Load balancers alternatifs : Nginx, HAProxy, cloud-native ingress controllers Sécurité microservices : service mesh (Istio, Linkerd), mTLS, network policies Kubernetes, Zero Trust Outils d'automatisation réseau : Ansible, Terraform pour configurations réseau/sécurité CERTIFICATIONS SOUHAITÉES F5 Certified BIG-IP Administrator ou F5 Certified Technology Specialist Check Point Certified Security Administrator (CCSA) ou Check Point Certified Security Expert (CCSE) Cisco CCNP Enterprise ou équivalent Microsoft Certified : Azure Network Engineer Associate (AZ-700) ITIL Foundation
Freelance

Mission freelance
CONSULTANT MOE BI ORIENTE DATA

PROPULSE IT
Publiée le
BI
MOE

24 mois
275-550 €
Nanterre, Île-de-France
Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Freelance
CDI
CDD

Offre d'emploi
DATA ENGINEER

VADEMI
Publiée le
Apache Spark
Azure
Databricks

1 an
Châtillon, Île-de-France
Nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark et SQL. · Analyse des traitements existants dans le cadre de projets de migration · Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake · Développement de notebooks Databricks pour des traitements avancés de données · Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) · Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) · Réalisation de revues de code dans une logique de qualité et de bonnes pratiques · Conception et exécution de tests unitaires · Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés 3 - Compétences techniques requises · Expérience Data minimum 5 ans · Azure minimum 3 ans · Databricks minimum 5 ans · Spark minimum 5 ans · Python minimum 5 ans · SQL minimum 5 ans · Maitrise de CI/CD, Azure DevOps minimum 3 ans · Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an
Freelance

Mission freelance
Data Engineer / DevOps Kafka Senior

Deodis
Publiée le
Kubernetes

1 an
500 €
Île-de-France, France
Rejoignez une équipe au cœur de la transformation technologique en tant que Data Engineer / DevOps Kafka Senior, où vous interviendrez sur la conception, l’exploitation et l’automatisation de plateformes Kafka industrielles déployées en environnements On-Premise et cloud. Vous serez impliqué dans l’administration avancée de clusters, le développement de solutions “Kafka as Code”, ainsi que dans la mise en place de pipelines CI/CD et d’outils d’automatisation (Python, Terraform, Ansible). Vous contribuerez également au maintien en conditions opérationnelles d’offres existantes, à leur évolution progressive, et participerez aux dispositifs de support et d’astreinte, tout en améliorant en continu la fiabilité, la supervision et l’industrialisation des systèmes dans des environnements conteneurisés (Docker, Kubernetes).
Freelance
CDI

Offre d'emploi
Data Analyst BigQuery (F/H) - Nantes

Argain Consulting Innovation
Publiée le
BigQuery
Looker Studio
SQL

6 mois
40k-45k €
400-450 €
Nantes, Pays de la Loire
Nous recherchons un Data Analyst expérimenté sur BigQuery pour intervenir sur des problématiques de fraude. Vous intégrerez une équipe data dynamique et contribuerez activement à la détection, l’analyse et la prévention des comportements frauduleux. Vos missions principales : Analyser les données afin d’identifier des schémas de fraude Concevoir et maintenir des requêtes complexes sur BigQuery Développer des indicateurs et tableaux de bord de suivi Collaborer avec les équipes métiers (risque, conformité, produit) Proposer des recommandations basées sur les analyses Participer à l’amélioration continue des outils de détection
Freelance

Mission freelance
Cadrage risques & data (BCBS 239)

Mon Consultant Indépendant
Publiée le
Data Strategy
Gestion de projet

4 mois
650-700 €
Paris, France
Dans le cadre de la transformation de ses fonctions de contrôle, un acteur de premier plan du Crédit à la Consommation souhaite définir et structurer sa future Plateforme Risque Cible. L'enjeu est double : moderniser l'infrastructure technologique pour intégrer les opportunités offertes par l'Intelligence Artificielle (automatisation des contrôles) tout en garantissant une conformité stricte aux exigences réglementaires, notamment BCBS 239. La mission s'inscrit dans un environnement transverse, nécessitant une synergie forte entre la Direction des Risques, les équipes Data et l'IT. Objectifs et Périmètre L'objectif central est de réaliser une analyse d'écarts (gap analysis) entre l'existant et la cible, puis de concevoir la feuille de route opérationnelle pour la mise en œuvre du dispositif. Le périmètre prioritaire est le Risque de Crédit, incluant également les risques financiers, de valeur résiduelle et opérationnels. Descriptif des interventions Phase 1 : Diagnostic et Analyse de l'Existant · Recueil des besoins : Animation d'ateliers avec les équipes Risques pour identifier les attentes et les leviers d'amélioration. · Audit des "Pain Points" : Identification des points de friction du dispositif actuel (processus, outils, qualité de donnée). · Benchmark de place : Analyse comparative des pratiques du secteur (organisation, gouvernance) et veille sur les cas d'usage de l'IA dans la gestion des risques. Phase 2 : Définition de la Cible (Target Operating Model) · Scénarios de Plateforme : Proposition de différents scénarios d'architecture et de services pour la plateforme cible. · Gouvernance des Données : Définition de la chaîne de responsabilité, de validation et de gouvernance de la donnée. · Pilotage : Spécification des tableaux de bord de suivi de la qualité des données (du niveau opérationnel jusqu’au Corporate Center). · Organisation & RH : Estimation des besoins en effectifs (FTE) et cartographie des compétences nécessaires pour opérer la cible. Phase 3 : Cadrage Opérationnel et Plan de Déploiement · Feuille de route : Élaboration d'un plan d'actions structuré par chantiers. · Gestion des dépendances : Articulation étroite avec le programme interne spécifique et les impératifs du projet BCBS 239. · Planning & Gouvernance Projet : Définition des jalons clés, des étapes de validation interne et mise en place des instances de pilotage. 4. Livrables attendus · Rapport d’analyse d’écarts et benchmark de place. · Dossier de définition de la plateforme cible et de l’organisation associée. · Schéma de gouvernance et de responsabilité des données. · Feuille de route détaillée (Roadmap) et planning d'implémentation. · Estimation budgétaire et dimensionnement des équipes (FTE). 5. Profil recherché · Expertise Métier : Solide expérience en gestion des risques (Crédit, Valeur Résiduelle, Opérationnel) dans le secteur financier. · Expertise Réglementaire : Maîtrise approfondie des exigences BCBS 239. · Culture Data/IA : Capacité à projeter l'utilisation de l'IA pour l'industrialisation des contrôles métiers. · Soft Skills : Excellence en gestion de projets transverses, capacité à fédérer des interlocuteurs variés (Risque, Finance, IT, Data). · Atout majeur : Expérience opérationnelle dans le secteur du crédit à la consommation automobile (captives).
1824 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous