L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 756 résultats.
Mission freelance
Ingénieur Réseau et sécurité H/F
Cheops Technology
Publiée le
Réseaux
Sécurité informatique
12 mois
400-450 €
Nantes, Pays de la Loire
Le prestataire devra justifier de compétences avérées et vérifiables correspondant à ce type de besoin et à problématiques complexes (organisationnelles et techniques) dans le domaine des Télécoms. Sous l’autorité du responsable de l’équipe Ingénierie Transverse, l’intervenant aura à assurer les activités suivantes : Réaliser des qualifications d’équipements de types routeur, commutateur, firewalls. Monter des maquettes conformes aux dossiers d’architecture, définir les configurations des équipements de ces maquettes, tester l’intégralité de la maquette en conditions de production. Rédiger les documentations afférentes à chacune de ces activités Assurer le support N3 (Processus de Gestion Des Problèmes) aux équipes de production sur les périmètres qualifiés. Assurer des astreintes sur des opérations programmées en production ou des présences sur des horaires décalés (ponctuellement).
Offre d'emploi
CHANGE MANAGER BI / DATA – TRANSFORMATION DIGITALE H/F
Savane Consulting
Publiée le
Évry-Courcouronnes, Île-de-France
Contexte du poste : Dans le cadre d’un programme de transformation autour de la data et des usages BI, nous recherchons un Consultant Conduite du Changement afin d’accompagner un projet de migration vers Power BI Service, pour un acteur majeur du secteur industriel (aéronautique). Vous interviendrez au cœur des enjeux d’adoption et d’appropriation des nouveaux outils, avec une forte orientation métier et utilisateur. Votre rôle sera clé pour garantir la réussite de la transformation en sécurisant l’impact opérationnel et en facilitant l’adhésion des utilisateurs. Missions principales : Analyser et cartographier les usages ainsi que les impacts utilisateurs liés à la migration Définir et piloter la stratégie de conduite du changement (plan de communication, formation, accompagnement) Concevoir et déployer les supports de communication et de sensibilisation Produire les kits de formation (guides utilisateurs, tutoriels, FAQ) Animer des ateliers d’accompagnement et de formation auprès des métiers Assurer le suivi de la montée en compétence et de l’appropriation des nouveaux outils Piloter la gouvernance projet en support à la conduite du changement (planning, indicateurs, reporting) Coordonner les parties prenantes (IT, équipes BI, métiers, sécurité) Produire les livrables projet (roadmap, tableaux de bord, comptes rendus, reporting) Réaliser le bilan de fin de mission et formuler des recommandations
Offre d'emploi
Consultant Data / IA H/F
VIVERIS
Publiée le
45k-55k €
France
Contexte de la mission : Dans le cadre de projets de transformation digitale et de valorisation de la donnée, nous recherchons un Consultant Data / IA capable d'intervenir sur des environnements à forts enjeux métiers. Le poste proposé combine deux responsabilités clés, au coeur de notre expertise Data : -> Référent technique en interne, vous êtes un pilier pour les équipes : vous éclairez les choix structurants, élevez le niveau d'exigence technique et impulsez les bonnes pratiques. -> Consultant stratégique auprès de nos clients, vous intervenez sur des projets d'envergure, pilotez les orientations techniques et contribuez directement à la réussite et à la transformation des organisations. Dans ces deux dimensions, vous accompagnez les directions métiers et IT pour structurer, valoriser et gouverner leurs données. Votre terrain de jeu : la conception de plateformes data modernes, l'industrialisation des flux et le développement de cas d'usage analytiques à fort impact métier. Responsabilités : * Piloter des projets et encadrer techniquement des profils juniors (data ingénieurs, analysts, scientists) ; * Participer à la conception technique et au développement ; * Participer aux processus d'avant vente ; * Faire une veille technologique efficace ; * Réaliser les entretiens techniques des candidats.
Mission freelance
INGÉNIEUR(E) RÉSEAU & SÉCURITÉ (F5 firewall Azure) au Havre
ODHCOM - FREELANCEREPUBLIK
Publiée le
Azure
F5
Firewall
3 mois
400-600 €
Le Havre, Normandie
CONTEXTE DE LA MISSION Dans le cadre de la consolidation de son infrastructure réseau et sécurité et de sa transformation vers une architecture micro-services, nous recherchons un Ingénieur Réseau & Sécurité Senior pour auditer, valider et consolider l'existant et sécuriser les opérations d’exploitation. L'environnement technique actuel repose sur une infrastructure multisites hybride Azure/on-premises avec connectivité Azure ExpressRoute, load balancers F5, firewalls Check Point, DRP géo-distribués. CONSOLIDATION DE L'EXISTANT Valider et mettre à jour les documentations techniques, schémas de flux applicatifs et matrices de filtrage - Réviser et proposer des amélioriations des configurations load balancing F5 (LTM, GTM, ASM/WAF) : VIPs, pools, health checks, SSL offloading, iRules - Réviser et proposer des amélioriations des configurations firewalls Check Point : règles de filtrage, NAT/PAT, VPN site-to-site et remote access, haute disponibilité ClusterXL - Analyser les configurations BGP (annonces, policies, route-maps, geo-clusters DRP) et connectivités Azure ExpressRoute - Identifier les vulnérabilités, points de fragilité et non-conformités, formuler des recommandations correctives priorisées TRANSFERT & ACCOMPAGNEMENT EQUIPES - Travailler en étroite collaboration avec les responsables d'infrastructure et l'équipe sécurité pour le transfert de connaissances - Standardiser et documenter les configurations réseau/sécurité : runbooks MCO (Maintien en Condition Opérationnelle) / MCS (Maintien en Condition de Sécurité), procédures d'exploitation, guides de dépannage - Former les équipes internes sur les bonnes pratiques d'exploitation F5 et Check Point
Mission freelance
249595/DATA Q Ingenieur - Snowflake , Dataiku , 'ELT ou ETL, Python et SQL
WorldWide People
Publiée le
Snowflake
6 mois
Saint-Denis, Île-de-France
DATA Q Ingenieur - Snowflake Confirmed, Maitrise de Dataiku Confirmed, Familier avec le concept d'ELT ou ETL Expert, Modélisation de données Confirmed, Expertise SQL, Python Expert, Connaissance technique de l'environnement Data (architecture medaillon, principe des data mesh) Confirmed , Votre rôle axé Analytics Engineer sera de : - Transformer, modéliser et documenter les données brutes pour les rendre exploitables - Développer des modèles et produits de données axés conformité pour alimenter la base graphe en partant des données brutes des applications - Maintenir en condition opérationnel nos flux d'ingestion vers la base de données graphes - Améliorer des processus de traitement des données pour gagner en rapidité et en efficacité. - Créer et mettre à jour de la documentation pour aider à l’utilisation des produits de données. - Automatiser des tests de contrôle et surveillance de la qualité pour garantir l’intégrité des données traitées. - Produire des analyses à destination de nos métiers pour le calibrage de scénarios de fraude ou vigilance LCB-FT - Collaborer avec les différentes parties prenantes (notamment les Data Engineers et les métiers de la fraude et LCB-FT) pour enrichir les données de la base de données graphes en fonction de leur besoin - Collaborer avec l'équipe Data Plaform en mettre en production les différents produits de données"
Offre d'emploi
Data Scientist IA
R&S TELECOM
Publiée le
CI/CD
Kubernetes
1 an
45k-55k €
430-470 €
Île-de-France, France
Contexte de la mission Vous serez amené à évoluer dans une équipe pluridisciplinaire et travailler à concevoir, développer ou faire évoluer notre infra et plateforme Big Data dans un environnement Kubernetes. Objectifs et livrables Maintenir et faire évoluer la chaine CI/CD et les différents environnements containerisés. Adapter nos infrastructures et services aux besoins des projets. Concevoir et intégrer de nouvelles solutions sur nos infrastructures conteneurisées Documenter l’architecture, l’administration et l’exploitation Guider nos clients dans l'utilisation de Kubernetes et des pipelines CI/CD Assurer le support de niveau 3 sur les infrastructures supportant la conteneurisation. Veiller à la sécurité de bout en bout dans l’usage des technologies de conteneurisation et des conteneurs. Assurer une veille technologique. Compétences demandées Compétences Niveau de compétence Programmation Python Confirmé Gitlab CI/CD Expert GRAFANA Avancé ANSIBLE Avancé KAFKA Expert KUBERNETES Expert ELASTICSEARCH Confirmé ,
Mission freelance
Tech Lead GCP / Data Engineering Senior (H/F)
HOXTON PARTNERS
Publiée le
BigQuery
Google Cloud Platform (GCP)
SQL
12 mois
Paris, France
Description du poste Dans le cadre d’un programme de transformation data de grande ampleur au sein d’un acteur international du secteur du luxe, nous recherchons un Tech Lead GCP senior pour intervenir sur des use cases commerce à forte valeur métier. L’enjeu principal de la mission est de concevoir et piloter des architectures data sur Google Cloud Platform afin de unifier l’expérience client online et offline , en structurant des socles de données capables d’alimenter les usages analytiques, les KPIs business et les dispositifs de pilotage associés. Le consultant ne sera pas positionné comme un simple data engineer, mais bien comme un profil expert GCP / Tech Lead , capable de porter la vision technique, de guider les choix d’architecture et d’accompagner les équipes sur la mise en œuvre. Il interviendra dans un environnement où la donnée doit permettre de mieux comprendre les parcours clients, de rapprocher les interactions digitales et physiques, et de renforcer la performance des usages commerce. Les responsabilités incluent notamment : Concevoir et faire évoluer des architectures data sur Google Cloud Platform Piloter techniquement la mise en place de solutions permettant de connecter et valoriser les données online et offline Définir et structurer des pipelines de données robustes, industrialisés et scalables Exploiter et optimiser BigQuery pour le stockage, la transformation et l’analyse de données à grande échelle Participer à la modélisation des données nécessaires aux indicateurs business et aux cas d’usage commerce Encadrer les choix techniques autour des flux de données, de la qualité, de la performance et des coûts Collaborer avec les équipes data, analytics et métiers pour produire des jeux de données exploitables Accompagner techniquement une équipe et jouer un rôle de référent sur les sujets GCP Contribuer à la mise à disposition des données pour les dashboards et outils de visualisation Participer à l’amélioration continue des architectures et des pratiques d’industrialisation
Offre d'emploi
Data Engineer/Data Analyst Databricks & PowerBI H/F
JEMS
Publiée le
40k-50k €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un(e) Data Engineer/Data Analyst spécialisé(e) sur Databricks et PowerBI capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression • Être l‘intermédiaire entre le Métier et la DSI • Accroître la connaissance de la clientèle d'une entreprise, conduire des études sur les bases de données, suivre les outils datamining pour analyser l'impact des actions marketing • Mener et conduire des études (coordination/pilotage) Référence de l'offre : 3cxk4ok195
Offre d'emploi
Data engineer - AWS Informatica (H/F)
CHARLI GROUP
Publiée le
Apache Airflow
Apache Spark
AWS Cloud
2 ans
45k-55k €
500-600 €
Île-de-France, France
Contexte : Dans le cadre d'un programme de transformation DATA, l'objectif est de doter l'entreprise d'outils permettant une exploitation avancée des données pour des prises de décisions optimisées. Ce programme impacte à la fois les technologies utilisées, l'organisation et les processus internes. Les projets en cours sont variés et incluent : L'optimisation des algorithmes de recommandation et segmentation ; Le développement d'un Feature Store pour la gestion des données ; La modernisation des flux financiers et des plateformes de contenu ; La mise en place d'architectures Big Data traitant plus de 100 To de données par jour ; Le partage d'informations clients avec des partenaires stratégiques. Missions Intégré(e) à l'équipe DATA Delivery, vous interviendrez sur l'évolution et la maintenance des socles de données (Usage, VOD, Advertising, CRM...) et leur interconnexion avec divers partenaires. Vous travaillerez sur des architectures de Streaming Data full AWS et des technologies Big Data avancées. Vos responsabilités incluront notamment : La conception et le développement de pipelines de données performants ; Administrer, maintenir et optimiser la plateforme Informatica PowerCenter ( serveurs, repository, workflow, sessions...) Concevoir, développer et documenter des workflows data pour alimenter le data warehouse et SI applicatifs Concevoir, développer et documenter des workflows Lakehouse avec AWS, Airflow, DBT et Python L'implémentation d'architectures de Streaming Data scalables et robustes ; Le développement de traitements de données en temps réel avec Scala, Spark et Terraform ; L'optimisation et la modernisation des flux de données dans un environnement Big Data ; Former et assister les utilisateurs internes ( équipes data, développeurs, MOA ...) La mise en oeuvre de bonnes pratiques en termes de qualité et de gouvernance des données ; La collaboration avec les équipes Data, BI et Infra pour garantir la cohérence et la disponibilité des données. Environnement technique Cloud & Big Data : AWS (Lambda, EMR Serverless, Kinesis Stream, S3, Firehose, DynamoDB) Développement : Informatica, Scala, Spark, SQL, Terraform, Python CI/CD & Orchestration : GitLab CI/CD, Jenkins Méthodologies : Agile (Scrum, Kanban)
Mission freelance
Data Business Analyst (H/F)
Insitoo Freelances
Publiée le
Confluence
JIRA
Python
2 ans
370-420 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Business Analyst (H/F) à Lyon, France. Contexte : Entité chargée de la Supervision et de la Gestion des Incidents dans le but de garantir la performance en production. Le profil recherché intègrera l’équipe en charge du suivi des performances en production, de la télédistribution des logiciels sur le parc, de la création de tableaux de bords. Date de début souhaitée : 04/05/2026 Du fait de la montée en compétence la prestation est attendue sur une durée relativement longue. Les missions attendues par le Data Business Analyst (H/F) : Activité principale Le profil recherché sera en charge de : • Suivre et analyser un ou plusieurs indicateur(s) de performance à la maille nationale et DR, expliquer leurs variations et mettre en place des actions d'amélioration associées • Réaliser des tableaux de bords de pilotage ou opérationnels de suivi de performance • Consolider les données et reporter les analyses associées aux variations de performances • Maîtriser le fonctionnement • Suivre l'ensemble des évènements de production • Préparer, animer et/ou représenter la production dans les différents comités • Comprendre, analyser, préparer, construire et animer des points autour de(s) l’indicateur(s) de performance avec les différentes parties prenantes. • Investiguer de manière autonome des anomalies ou signaux faibles dans les données, en identifiant des pistes d’analyse non prévues initialement • Challenger les processus existants et proposer des axes d’optimisation basés sur les analyses réalisées • Identifier et activer des leviers d’amélioration en coordination avec des équipes contributrices (métiers / techniques) • Assurer un rôle de référent sur l’indicateur en étant force de proposition sur son évolution (méthode de calcul, périmètre, pertinence) • Contribuer à l’amélioration continue des pratiques d’analyse et de pilotage de la performance au sein de l’équipe Activité secondaire • Suivi de performance dans le cadre de pilote et expérimentation • Suivi de performance sur des périmètres dédiés en fonction des actualités de production • Capitalisation et partage de connaissances (rédaction documentaire) • Rédiger et diffuser le reporting cross chaine quotidien Stack technique de l'équipe : Tableau Desktop, JIRA / Confluence, Suite Office (notamment Excel, Powerpoint et Teams), SQL et Python
Offre d'emploi
Ingénieur Systèmes et Réseaux F/H
AIS
Publiée le
Réseaux
1 mois
34k-40k €
200-400 €
Rennes, Bretagne
Vous assurez un fonctionnement optimal des systèmes d'information de nos clients grands comptes. Vous participez notamment à l'ingénierie, à la conception ou au design d'architectures, et à l'intégration de solutions d'infrastructures systèmes et réseaux, systèmes d'exploitation, virtualisation, messagerie, collaboratif, stockage, réseaux LAN et WAN. Vous assurez un support technique de haut niveau et apportez les préconisations nécessaires à l'optimisation de l'exploitation de ces environnements. Vous êtes force de proposition pour accompagner nos clients et travailler en mode projet à l'évolution de leur infrastructure. Environnement technique : Windows, Switch CISCO, SQL..
Offre d'emploi
Data Engineer Big Data/Teradata
VISIAN
Publiée le
Apache Spark
Big Data
Python
2 ans
40k-80k €
400-620 €
Paris, France
Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Big data/Teradata Vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ Teradata CONTROL-M Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) SQL sur SGBD relationel (Teradata) TPT Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea Spark HDFS Python Hadoop
Offre d'emploi
Analyst Support IT Salle des Marchés
cty
Publiée le
Market data
Support utilisateurs
1 an
40k-65k €
400-650 €
Paris, France
La prestation concernera l'activité de support technique des applications Market Data, Trading, Broker et Contribution, utilisées par les traders de la salle des marchés Fixed Income. En contact permanent avec la salle de marché, vous interviendrez principalement sur les applications de Pre-trade, installées sur les postes de travail des utilisateurs. Vous assistez les utilisateurs dans leur utilisation des applications installées sur leurs postes de travail : • Market data • Applications Broker • Trading A ce titre, vos missions principales sont : - Support niveaux 2 et 3 : * Gestion des incidents incluant l'identification de la root cause et les actions de résolution * Gestion de la communication en direction des utilisateurs, du management et des autres équipes IT * Gestion des demandes utilisateurs * Maintien à niveau des architectures de Backup et de PSI de façon continue - Maintenance évolutive * Gestion des évolutions des applications sous gestion. * Choix de la meilleure solution en rapport avec les standards du client * Définition et suivi d’un plan d’action, d’un planning et d’un plan de charge * Mise en place de la solution en coordination avec les autres équipes IT (réseau, serveurs, Citrix, …) * Pilotage du déploiement à Paris et à l’international
Mission freelance
Ingénieur Data (RIM / IDMP)
CS Group Solutions
Publiée le
Data analysis
6 mois
Île-de-France, France
Nous recherchons un Ingénieur Data (RIM / IDMP) Objectif global :Accompagner l’équipe Data Entry (RIM / IDMP) Compétences techniques: affaires réglementaires - Confirmé - Impératif RIM /IDMP - Confirmé - Impératif Mission / Responsabilités : - Développer une compréhension détaillée de la configuration RIM, des processus, des rôles et des responsabilités. - Collaborer avec les équipes RIM Business Run et Data Entry pour traiter les tickets liés aux processus (problèmes / questions / mode opératoire) provenant d’un large éventail de parties prenantes. - Élaborer des propositions d’amélioration des processus, mettre à jour les guides utilisateurs et partager/diffuser ces consignes. Utiliser les canaux les plus appropriés pour traiter les problèmes urgents (par exemple : sessions de partage de connaissances Q&A, newsletters, communications directes). - Travailler avec les équipes métier (experts métiers) pour collecter les demandes d’amélioration et les transformer en demandes de changement (« change requests ») exploitables pour les équipes IT Run. - Participer activement aux sessions de priorisation et de planification des releases RIM. - Participer aux activités de UAT (User Acceptance Testing) en tant que représentant métier, selon les besoins. - Soutenir l’équipe de migration des documents/archives avec des contributions continues sur les processus métier. - Aider les experts data à résoudre les problèmes en cours liés aux données associées aux étapes des processus. __________ Expérience / Compétences : - Expérience démontrée dans les processus réglementaires globaux (Global Regulatory Business Process) incluant : - planification des changements globaux/locaux - planification et suivi des soumissions - planification et suivi des enregistrements - gestion des CCDS et de l’étiquetage local - reporting - Expérience avec Veeva Vault RIM (en tant qu’utilisateur final) fortement préférée. - Expérience en cartographie/modélisation des processus souhaitée. - Diplôme de niveau Master dans un domaine des sciences de la vie, informatique, ou bioinformatique souhaité. - Excellentes compétences en communication en anglais. - Autonomie, esprit d’initiative et aptitude à résoudre des problèmes (troubleshooting mindset).
Offre d'emploi
🚀 Opportunité – Expert Infrastructure / Data / Middleware (Migration Big Data)
OMICRONE
Publiée le
Ansible
CFT (Cross File Transfer)
IBM DataStage
3 ans
40k-45k €
400-500 €
Île-de-France, France
Dans le cadre d’un projet stratégique de migration d’une plateforme Big Data vers une architecture classique , nous recherchons un expert technique senior capable de piloter et réaliser une migration from scratch. 📍 Localisation : Île-de-France 📅 Démarrage : ASAP 🎯 Vos missions : • Concevoir et mettre en place une nouvelle plateforme data (from scratch) • Installer, configurer et administrer les infrastructures (serveurs, bases de données, middlewares) • Mettre en place une architecture haute disponibilité (actif/passif, actif/actif) • Installer et configurer ETL DataStage et ses composants • Gérer les middlewares (MQSeries, CFT, Autosys…) • Assurer le monitoring (Dynatrace, Elastic, BAM…) • Automatiser les déploiements (Ansible, Jenkins, Git) • Mettre en place les standards sécurité (certificats, chiffrement des flux, conformité) • Documenter, former et accompagner les équipes support (N2/N3) • Participer au support de production et à l’amélioration continue 🛠 Environnement technique : • ETL : DataStage / DataStage TX • Middleware : MQSeries, CFT, Autosys • Infra : Linux, Windows, Kubernetes • Bases de données : Oracle / Exadata • Monitoring : Dynatrace, ElasticSearch • DevOps : Ansible, Jenkins, Git • Réseau & sécurité : Load balancer, DNS, WAF, certificats ✅ Profil recherché : • Expert technique confirmé en infrastructure/data/middleware • Expérience en migration de plateformes complexes • Maîtrise des architectures haute disponibilité • Forte autonomie et capacité à intervenir de bout en bout • Bonne compréhension des enjeux sécurité et performance • Capacité à interagir avec des équipes techniques et métiers
Offre d'emploi
Chef de projet Data
OBJECTWARE
Publiée le
Data analysis
Gestion de projet
2 ans
40k-75k €
400-600 €
Île-de-France, France
Dans le cadre du développement de ses activités Data et de la valorisation des données métiers, notre client souhaite renforcer ses équipes avec un Chef de Projet Data . La mission consiste à piloter des projets de transformation et d’exploitation de la donnée, en lien étroit avec les équipes métiers, Data et IT, afin de produire des indicateurs décisionnels et des outils de visualisation. Pilotage de projets Data Recueillir et analyser les besoins métiers liés à la valorisation de la donnée Piloter les projets Data de la phase de cadrage jusqu’à la mise en production Organiser et animer les ateliers avec les équipes métiers et techniques Suivre l’avancement des projets (planning, risques, dépendances) Analyse et valorisation des données Contribuer à la structuration et à la qualité des données exploitées Participer à la modélisation et à la préparation des datasets Exploiter Dataiku pour l’analyse des données et la production d’indicateurs Datavisualisation et reporting Concevoir des tableaux de bord et indicateurs de performance Mettre en place des visualisations de données permettant le pilotage métier Garantir la cohérence et la fiabilité des indicateurs produits Coordination des équipes Assurer l’interface entre métiers, data analysts, data engineers et IT Suivre les développements et la livraison des solutions Data Participer à l’amélioration continue des processus Data
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Barème kilométrique interdit pour les TNS, vrai ou faux ?
- Facturation electronique 2026
- Le crédit ou prêt entre particuliers en 24h
- aides non remboursables
- Prêt à l'investissement -Prête auto -Consolidation de dettes -Le rachat de crédit -Prêt personnel
5756 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois