L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 110 résultats.
Mission freelance
Développeur Power BI (RH Data) - Expert
Atlas Connect
Publiée le
Analyse financière
API
Data analysis
2 mois
450-560 €
Île-de-France, France
Responsabilités & Livrables 1. Modélisation & Structuration des Données (Back-End) Ingestion des données : paramétrer les flux trimestriels depuis le SIRH (API, SFTP, exports plats). Data Preparation (Power Query) : nettoyer, transformer et normaliser les données issues des pays (formats de date, doublons, jointures sur Employee ID). Modélisation (DAX) : créer les mesures et indicateurs calculés complexes (taux de complétion, scores moyens pondérés, évolution N vs N-1). 2. Visualisation & Design (Front-End) Création de dashboards interactifs respectant la charte graphique existante. UX Reporting : faciliter la navigation par pays, département ou niveau hiérarchique. Sécurité (RLS) : implémenter la sécurité au niveau des lignes pour limiter l’accès aux données selon le périmètre géographique. 3. Optimisation & Performance Audit de l’existant : identifier les goulots techniques ralentissant les livraisons. Automatisation : minimiser les interventions manuelles lors des mises à jour trimestrielles. 👤 Profil Recherché Expertise Power BI : maîtrise avancée de Power Query (M) et DAX. Expérience Data RH : connaissance des indicateurs de performance (Talent Management) appréciée pour comprendre les enjeux métier. Langue : anglais technique requis (modèle de données et documentation). Soft Skills : Rapidité d’exécution : capacité à livrer des prototypes fonctionnels rapidement (méthode agile). Rigueur : précision cruciale, une erreur de calcul peut avoir un impact important sur les décisions RH.
Offre d'emploi
Expert data & BI - Secteur Industrie
OCTOGONE
Publiée le
BI
Preuve de concept (POC)
2 ans
Hauts-de-Seine, France
Objectif : Accélérer les projets et augmenter la valeur métier des solutions en explorant et en prototypant de nouvelles technologies (IA, Data/BI) et méthodes (Agilité). Attendus : Des prototypes et "Proof of Concepts" (PoC), des tableaux de bord décisionnels (Power BI), un accompagnement (coaching) des équipes à l'agilité, et des études de veille technologique. Concevoir et développer des chaînes de traitement de données. Modéliser les schémas et structures des données pour l'analytique métier. Construire des tableaux de bord et des rapports pour les métiers (Power BI, etc.).
Mission freelance
Développeur Big Data
Codezys
Publiée le
JIRA
Linux
Python
24 mois
330-400 €
Lyon, Auvergne-Rhône-Alpes
Organisation Dans le cadre de ses activités liées au traitement de données volumineuses, une organisation recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans la gestion d'une plateforme Hadoop. Objectif de la mission Réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, notamment la mise en place d'extractions et l'accompagnement des utilisateurs. Description de la mission Le candidat, rattaché au responsable en charge du traitement de données volumineuses, sera principalement chargé de : Prendre en charge l'évolution des flux de données et reprendre les développements existants pour leur alimentation, en faisant évoluer ceux-ci selon les besoins. (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) Définir la spécification technique des tâches, fournir des requêtes de référence, réaliser des revues de code, et accompagner d’éventuels alternants ou stagiaires. Mettre en place des processus d'extraction à partir des données. Assurer le support de niveau 2. Faire respecter les consignes d’utilisation auprès des utilisateurs. Garantir le respect des délais de livraison dans un environnement exigeant. Contribuer à la maintenabilité, la performance et l’exploitabilité de la plateforme. Il veillera également à respecter l’utilisation des modèles référencés ou leur évolution, en collaboration avec la Direction Technique et la Gouvernance des Données. Le profil doit posséder des compétences avérées en communication, diplomatie, capacité d’intégration, partage de connaissances, documentation, et accompagnement des utilisateurs.
Mission freelance
[LFR] Expertise Réseau Datacenter à Guyancourt - 1395
ISUPPLIER
Publiée le
10 mois
300-490 €
Guyancourt, Île-de-France
Voici le détail du besoin L’équipe a la responsabilité du maintien en condition opérationnelle et des évolutions des infrastructures Réseau DC et Télécoms, au sein d‘une équipe disposant d’un large spectre technologique (F5, VXLAN EVPN, Cisco ACI, VMware NSX, Segment Routing, MPLS...) Descriptif de la mission En tant qu'Expertise Réseau Datacenter, un des référents techniques concernant la conception et l'exploitation du réseau dans nos datacenters. Pour principales missions : - Fournir un soutien technique de haut niveau pour la conception, le déploiement et la gestion de l'infrastructure réseau du datacenter. - Participer à la résolution des problèmes complexes de niveau 3, de l'optimisation des performances et de la mise en œuvre des nouvelles technologies réseau. - Collaborer avec les équipes d'ingénierie et d'exploitation pour élaborer des plans d'amélioration continue de l'infrastructure réseau. - Assurer l’interface avec les experts des autres domaines. - Former et encadrer les membres juniors de l'équipe réseau. - Mettre à jour les documentations techniques au fil du temps. - Effectuer une veille technologique sur le périmètre. Environnements techniques : Cisco (NX-OS, IOS-XR); Fabrics (VXLAN); Routage avancé (BGP,OSPF,ISIS) Network function virtualization (NFV); SDN (NSX-T, ACI). DNS Efficient IP; Profil et expérience recherchés Solide expérience dans la conception, le déploiement et la gestion d'infrastructures réseau complexe dans un environnement datacenter Anglais opérationnel • Les astreintes (HNO, etc…) : Oui • La possibilité de renouvellement : Oui • Type de projet (support / maintenance / implementation /…) : Implémentation • Type de prestation (Client / Hybrid / Remote) : Client • Nombre de jours/semaine ou par mois (à préciser : /s ou /m) chez le client : 3 jours / semaine
Offre d'emploi
Data Analyst Power BI
UCASE CONSULTING
Publiée le
Data visualisation
DAX
Microsoft Power BI
1 an
55k-60k €
500-600 €
Île-de-France, France
Dans le cadre du renforcement de l'équipe Data de notre client, nous recherchons un(e) Data Analyst expérimenté(e) pour intervenir sur des environnements cloud et accompagner les métiers dans la valorisation de leurs données. Missions En collaboration avec les équipes Data et les équipes métiers, vous serez amené(e) à : Recueillir et analyser les besoins métiers Concevoir et maintenir des tableaux de bord et reportings sous Power BI Accompagner les utilisateurs dans la prise en main des outils décisionnels
Offre d'emploi
Ingénieur Messagerie / Système (H/F)
TENEXA GROUP
Publiée le
50k-59 999 €
Neuilly-sur-Seine, Île-de-France
Dans le cadre de l’évolution de son infrastructure, notre client recherche un Ingénieur Messagerie / Système pour renforcer ses équipes et accompagner la modernisation de ses environnements techniques. Exchange Online (Référent technique) : Assurer le RUN & l’exploitation de l’environnement Exchange Online (infrastructure existante) Garantir la sécurisation des flux mails et la conformité des configurations Être le point de contact principal sur les problématiques messagerie Participer à l’ amélioration continue , au suivi des incidents et à l’optimisation des performances Active Directory On-Premise : Administrer et maintenir plusieurs environnements AD (Bureautique, Radio, Télé) Mettre en œuvre une sécurisation avancée (modèle de tiering) Gérer les architectures hybrides AD / Entra ID Contribuer à l’ harmonisation des annuaires Environnement technique : Exchange Online Active Directory Entra ID IronPort PowerShell
Offre d'emploi
Data Engineer H/F
OBJECTWARE
Publiée le
Microsoft Power BI
Python
SQL
1 an
Tours, Centre-Val de Loire
Missions : Animation du processus (Coordination des correspondants, Suivi des données d’entrée nécessaires à l’exécution, reporting…) Administration et exploitation de l'application métier (Paramétrage, Exécution des traitements…) Support utilisateur & MCO (Assistance fonctionnelle niveau 1 & 2, Diagnostic, résolution d’incidents, escalade si nécessaire...) Planification et organisation des recettes, Formalisation des PV Création/mise à jour de fiches d’assistance, manuels utilisateurs, procédures d’ingénierie
Offre d'emploi
DevOps streaming Data - (H/F)
SWING-ONE
Publiée le
Ansible
Apache Kafka
DevOps
1 an
Île-de-France, France
CONTEXTE DU POSTE : Nous recherchons pour notre client Grand-Compte un DevOps streaming Data. Vous intégrerez le pôle technologique en charge de concevoir et d’opérer des plateformes « as a service » permettant le déploiement d’architectures modernes, distribuées et hautement résilientes pour l’ensemble des entités du Groupe. MISSIONS PRINCIPALES : Industrialiser et automatiser les déploiements (Ansible) Mettre en production de nouveaux clusters Kafka et faire évoluer les clusters existants (scale horizontal & vertical) Participer à la définition des architectures des futures briques de la plateforme Streaming Apporter une expertise technique aux utilisateurs de la plateforme Développer des prototypes en lien avec les cas d’usage métiers Documenter les offres et démontrer la valeur des solutions Data
Offre d'emploi
Expert Collibra - Senior Data Management - Data Governance Lead Collibra ; MDM ; DAMA / DCAM
Inventiv IT
Publiée le
Collibra
Data governance
IA
6 mois
60k-70k €
600-700 €
Île-de-France, France
Data Management Lead - Chef de projet - Senior Data Management / Data Governance Lead Collibra ; MDM ; DAMA / DCAM - réglementations Data & IA (IA Act) Conduite de programme Data complexe – environnement grand groupe. 10+ ans en Data Management / Data Governance ET GESTION DE PROJETS COMPLEXES Pilotage de programmes data transverses Contexte multi-métiers, réglementé Data Management & Gouvernance Gouvernance de la donnée (DAMA / DCAM) Data catalog, glossaire, dictionnaire de données Données de référence (MDM), qualité de la donnée Cycle de vie, linéage, classification des données Outil clé : Collibra (expert) Certification DAMA appréciée – pas nécessaire
Mission freelance
Product Owner CRM – Data Client BtoB & Prospection
Deodis
Publiée le
Salesforce
1 an
550-580 €
Île-de-France, France
Le Product Owner CRM – Data Client BtoB & Prospection chez TF1 Publicité est responsable de la gestion et de l’évolution du référentiel client et des processus de prospection au sein du CRM Salesforce. Intégré à la Direction des Technologies, il définit la vision produit, pilote la roadmap et coordonne les développements afin d’améliorer les outils utilisés par les équipes commerciales. En collaboration avec les métiers et les équipes techniques, il recueille les besoins, priorise le backlog, garantit la cohérence avec les autres systèmes du SI et accompagne le déploiement des nouvelles fonctionnalités pour optimiser la gestion de la data client B2B et soutenir la performance commerciale.
Mission freelance
Expert réseau et sécurité (H/F)
Signe +
Publiée le
Administration réseaux
Cisco ASA
Palo Alto
6 mois
250-410 €
Noisy-le-Grand, Île-de-France
Description détaillée de la prestation : Missions attendues : • Participation à la préparation et à la configuration des équipements dans les nouveaux DC. • Participation active aux tâches de déploiement et de maintenance. • Gestion et configuration des équipements réseau et sécurité. • Tests de performance et résiliences de l’infrastructure. • Support de stabilisation post-migration (correction des bugs, revue des configurations, tickets support constructeur). • Le maintien en conditions opérationnelles du réseau et de ses différentes plateformes tout en assurant leurs conformités avec les exigences de résilience opérationnelle. • Élaboration ou mise à jour des dossiers techniques HLD/LLD • Montée de version logicielle, patch management. • Mise en place du monitoring, de la sauvegarde et la centralisation des logs des équipements réseau et sécurité. • Support N2/N3 sur les différents composants d’infrastructure. • Assurer la conformité avec les engagements contractuels des prestataires externes (SLA, délais, qualité et performance) Techno : Compétences techniques • Réseau : Cisco Nexus NXOS, VXLAN EVPN, NDFC, OSPF/BGP ; VPN/SDWAN • Firewall : ASA, Firepower/FMC, Paloalto, Fortinet (NextGen) • Proxy/Reverse proxy : Denyall/UBIKA, , Blue Coat, FortiProxy • Loadbalenceur: F5, Netscaler • Wifi (WLC Cisco/Juniper), ISE • DNS/DHCP : EfficientIP • Automatisation (Ansible, Terraform) • Syslog et supervision (Solarwinds) • Transfert de fichier CFT, Synchrony Gateway Axway (serait un plus).
Mission freelance
Proxy Product Owner Data ( Finance)
adbi
Publiée le
Product management
6 mois
530-630 €
Île-de-France, France
Langue requise : Anglais courant obligatoire Environnement : Transformation Finance et Data – contexte international1. Contexte de la mission Dans le cadre d’un programme de transformation de la fonction Finance, le Proxy Product Owner Data intervient au sein de la fonction Data afin d’accompagner les équipes Finance dans leurs initiatives de transformation. Le programme couvre notamment l’automatisation des processus ainsi que les processus clés tels que Procure-to-Pay (P2P) et Order-to-Cash (O2C). Le rôle consiste à garantir que toutes les initiatives de transformation comportant une dimension Data sont correctement identifiées, structurées et alignées avec les standards, les architectures et les frameworks de delivery Data de l’entreprise. Ce poste est transverse et nécessite une collaboration étroite avec les équipes Finance, IT et Data afin d’assurer la livraison efficace de solutions orientées Data. 2. Mission principale Le Proxy Product Owner Data agit comme référent Data pour les projets de transformation Finance en assurant que : Les projets ayant un impact Data sont correctement identifiés Les initiatives sont cadrées, structurées et priorisées Les solutions respectent les standards d’architecture et de gouvernance Data Les projets sont livrés efficacement avec le bon niveau de coordination et de gouvernance 3. Responsabilités principales3.1 Identification et priorisation des initiatives Responsabilités : Identifier les initiatives Finance ayant un impact sur la Data Évaluer la valeur métier et la faisabilité Assurer l’alignement avec les priorités Data Contribuer à la gestion et à la priorisation du backlog Livrables : Portefeuille des initiatives Data Finance Framework de priorisation Documentation des impacts Data Alimentation du backlog 3.2 Recueil des besoins et validation des solutions Responsabilités : Traduire les besoins métiers Finance en exigences fonctionnelles et techniques Assurer l’alignement avec les standards d’architecture Data Valider les solutions et les modèles de données Livrables : Documentation des besoins métier et Data Spécifications fonctionnelles Documentation des flux de données Rapports de validation des solutions 3.3 Expertise Finance et support à la transformation Responsabilités : Apporter une expertise sur les processus Finance Accompagner les initiatives de transformation sur : Procure-to-Pay (P2P) Order-to-Cash (O2C) Automatisation des processus Finance Garantir l’adéquation des solutions Data avec les besoins métier Livrables : Cartographie des processus Définition des cas d’usage Recommandations d’amélioration 3.4 Support à l’automatisation des processus Responsabilités : Participer à la mise en œuvre des solutions d’automatisation Contribuer aux cas d’usage d’automatisation (ex : Dataiku ou équivalent) Garantir la qualité et l’intégration des données Livrables : Backlog des cas d’automatisation Spécifications des solutions Documentation des pipelines et intégrations 3.5 Coordination et suivi des projets Responsabilités : Coordonner les équipes Finance, IT et Data Suivre l’avancement des projets Identifier et résoudre les blocages Assurer le reporting auprès des parties prenantes Livrables : Tableaux de bord projets Rapports d’avancement Suivi des risques et dépendances Reporting aux stakeholders 3.6 Gouvernance et qualité des données Responsabilités : Assurer le respect des standards et de la gouvernance Data Appliquer les bonnes pratiques en matière d’architecture Data Garantir la qualité, la sécurité et l’intégrité des données Livrables : Rapports de conformité Documentation de gouvernance Définition des contrôles de qualité des données 3.7 Communication et gestion des parties prenantes Responsabilités : Être le point de contact principal sur les sujets Data pour la transformation Finance Fournir des reportings réguliers Faciliter la prise de décision et l’alignement des équipes Livrables : Rapports d’avancement Supports de communication Présentations pour les comités de pilotage
Offre d'emploi
Ingénieur Devops & production H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
40k-50k €
Saint-Paul-lès-Durance, Provence-Alpes-Côte d'Azur
L'activité Services en région Provence-Alpes-Côte d'Azur accompagne plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Au sein de l'équipe Application Management de notre client, grand acteur dans le domaine de l'énergie, vous contribuez à la fiabilité, l'automatisation et l'amélioration continue des environnements applicatifs. Vos responsabilités : • Conception collaborative : Intervenir en amont des projets en collaboration avec les équipes de développement et d'architecture afin d'intégrer les contraintes d'exploitation dès la phase de conception et garantir la robustesse et la maintenabilité des solutions • Veille technologique : Assurer une veille active et être force de proposition sur les nouvelles technologies et pratiques (Infrastructure as Code IaC, Kubernetes, observabilité, automatisation de la sécurité et outils DevOps) • Automatisation avancée : Concevoir, développer et maintenir des pipelines CI/CD robustes et sécurisés afin d'accélérer et fiabiliser le déploiement des applications sur des environnements complexes (cloud, on-premise et conteneurisés) • Ingénierie de production : Piloter les mises en production et assurer le bon fonctionnement des applications (surveillance, gestion des incidents, optimisation des performances et amélioration de la scalabilité des systèmes) • Support et collaboration : Accompagner les équipes d'exploitation et de développement, faciliter la résolution des incidents et contribuer à la diffusion des bonnes pratiques DevOps au sein de l'organisation • Intégration & qualification : Valider et qualifier les packages applicatifs (.NET, Java, microservices) dans un environnement multi-plateformes avant leur déploiement en production L'environnement technique : Kubernetes, Jenkins, GitLab CI, GitHub Actions, Terraform, Ansible, Puppet, Chef, Terraform, Docker, OpenShift, Cloud (AWS, Azure, GCP), Python, Bash, Java, Prometheus, Grafana, ELK Stack, Git (GitFlow), SonarQube, Maven, Nexus • La qualité de vie au travail : télétravail avec indemnité, évènements festifs et collaboratifs, accompagnement handicap et santé au travail, engagements RSE Référence de l'offre : 0w58lqbmiz
Mission freelance
Consultants système et réseau SI industriel
ALLEGIS GROUP
Publiée le
Infrastructure
IoT
Réseaux
3 ans
510-890 €
Paris, France
Dans le cadre d’un vaste programme, notre client modernise ses sites industriels en intégrant des technologies IoT, IA, Cloud et automatisation au cœur des processus de production. Ce projet s’inscrit dans une dynamique de réindustrialisation , d’extension d’usines et de montée en maturité des environnements OT/IT . Nous recherchons un Consultant Infrastructure & Réseau – SI Industriel pour accompagner la conception, le déploiement et le maintien des infrastructures techniques des sites. Missions principales 1. Conception & Déploiement des Infrastructures IT Industrielles Définition et mise en œuvre des architectures systèmes (serveurs, virtualisation, stockage). Installation et configuration des environnements techniques en usine (postes opérateurs, serveurs industriels, VM…). 2. Gestion et Optimisation des Réseaux OT/IT Administration des réseaux LAN, VLAN, Wi-Fi industriel, firewalls et segmentation réseau. Mise en place de règles de communication entre zones IT et OT. Contribution à la sécurisation des environnements industriels. 3. Support aux projets d’extension ou de construction d’usines Participation aux études techniques lors de la création ou extension de lignes de production. Coordination avec les équipes de production, les automaticiens et les partenaires techniques. 4. MCO / MCS & Documentation Maintien en conditions opérationnelles (MCO) des infrastructures et réseaux industriels. Diagnostic et résolution d’incidents en environnements critiques. Rédaction et mise à jour de la documentation technique.
Mission freelance
Tech Lead Senior (Applications Marketing & Data)
Sapiens Group
Publiée le
BigQuery
Google Cloud Platform (GCP)
12 mois
500-540 €
Île-de-France, France
Nous recherchons un Tech Lead Senior pour piloter et faire évoluer plusieurs applications stratégiques liées à la performance des assets média. Vous évoluerez dans une équipe pluridisciplinaire composée de profils variés (Développeurs Full Stack, Data Scientists, Data Engineers, Product Owner, QA) dans un environnement dynamique et orienté data. L’une des applications principales vise à offrir une vision complète de la performance et de l’optimisation des assets média , couvrant l’ensemble de la chaîne de valeur : de la stratégie globale jusqu’à l’activation locale . Missions principales Leadership technique Encadrer et superviser les ressources techniques de l’équipe. Assurer le rôle de référent technique et accompagner les développeurs dans les choix technologiques et les bonnes pratiques. Architecture & conception Concevoir et définir les architectures et solutions techniques des applications. Garantir la robustesse, la scalabilité et la maintenabilité des systèmes. Développement & intégration IA Piloter et gérer des applications intégrant des briques d’intelligence artificielle : gestion de la code base data pipelines optimisation des modèles déploiement et supervision Intervenir sur l’ensemble de la stack : Front-end, Back-end, Cloud Infrastructure et DevOps . Data & Cloud Exploiter et intégrer les données issues du datalake du Groupe (BigQuery) . Maîtriser l’écosystème Google Cloud Platform (GCP) et contribuer aux bonnes pratiques d’architecture cloud. Collaboration transverse Agir comme point de contact technique auprès des équipes transverses : Cybersécurité Data Privacy Enterprise Architecture Garantir la conformité des solutions aux standards du groupe. Résolution de problématiques techniques Investiguer et résoudre des problématiques techniques complexes : debugging avancé optimisation des performances migration d’infrastructures amélioration continue des systèmes. Profil recherché Expérience confirmée en lead technique / Tech Lead / Architecte . Solides compétences en développement full stack et architectures cloud . Expérience sur Google Cloud Platform (GCP) et BigQuery . Bonne compréhension des architectures data et IA/ML pipelines . Capacité à travailler dans un environnement transverse et collaboratif . Forte aptitude à analyser, diagnostiquer et résoudre des problèmes techniques complexes .
Offre d'emploi
Data Engineer (Paris ou Lyon)
TEOLIA CONSULTING
Publiée le
BI
Data Lake
Master Data Management (MDM)
12 mois
40k-45k €
400-470 €
Paris, France
Nous recherchons pour l'un de nos clients un(e) Data Engineer pour renforcer une squad Data dédiée à la mise en place d’un socle de Master Data Management (MDM) . L’objectif du projet est de centraliser, fiabiliser et gouverner les données liées aux instruments financiers , dans un environnement exigeant en matière de qualité, traçabilité et sécurité. Missions : Intégré(e) à une équipe pluridisciplinaire (Data Engineers, Architecte, BA, PO), vous interviendrez sur : La conception et le développement de pipelines de données (modèle Bronze / Silver / Gold) L’ingestion et l’orchestration des flux via Apache NiFi L’intégration de données multi-sources (CSV, XML, API REST) La modélisation des données et la construction de vues consolidées MDM La mise en place de contrôles de qualité et de traçabilité (logs, audit, complétude, cohérence, versioning) L’optimisation des performances des pipelines Le respect des standards de sécurité et conformité La documentation et le partage de bonnes pratiques au sein de la squad Environnement technique Apache NiFi SQL / NoSQL PostgreSQL Stockage objet : S3 / Blob Formats & protocoles : JSON, XML, CSV, API REST Scripting : Python , Bash CI/CD : GitLab, GitLab CI
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6110 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois