L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 796 résultats.
Mission freelance
Architecte Data Gouvernance - (H/F)
Publiée le
Architecture
Data governance
Data integrity
12 mois
550-650 €
Île-de-France, France
Télétravail partiel
Le ou la Responsable opérationnel(le) Data Gouvernance joue un rôle central dans l’animation, la mise en œuvre et le pilotage opérationnel de cette gouvernance, en lien étroit avec les métiers, la DSI et les acteurs data. Objectifs de la mission Assurer la mise en œuvre et le pilotage de la gouvernance des données au sein de l’organisation, en garantissant la qualité, la conformité réglementaire et la cohérence des référentiels et des flux de données. Missions principales1. Animation de la gouvernance des données Assurer le rôle de référent(e) opérationnel(le) en matière de gouvernance des données. Planifier, préparer et animer le Comité de Gouvernance Data. Contribuer à la construction, au pilotage et au suivi de la feuille de route Data. Organiser et animer les comités Qualité des Données (QDD) avec les entités concernées. Garantir l’alignement des actions entre les équipes métiers, les équipes IT et les différents rôles data. 2. Gestion des responsabilités et des rôles data Maintenir et faire évoluer la cartographie des responsabilités data (Data Owners, Data Stewards, référents IT). Coordonner les acteurs afin d’assurer la cohérence, la continuité et l’efficacité de la gouvernance des données. Accompagner la montée en maturité des rôles data au sein de l’organisation. 3. Gestion du Catalogue de Données Piloter la mise à jour, l’enrichissement et la validation du Catalogue de Données. Garantir l’accessibilité, la lisibilité et la cohérence des métadonnées. Promouvoir l’usage du catalogue auprès des équipes métiers et IT. 4. Qualité, conformité et audit des données Participer à la validation des tableaux de bord Qualité des Données (QDD). Identifier les écarts entre la modélisation logique et les implémentations physiques. Piloter les audits de conformité des référentiels de données. Contribuer à la définition, au suivi et à la priorisation des plans de remédiation. 5. Contribution à l’architecture d’entreprise Évaluer les impacts data, référentiels et flux lors des phases de cadrage fonctionnel des projets. Contribuer à la définition des architectures fonctionnelles et applicatives en cohérence avec les principes de gouvernance des données. Participer aux travaux de cartographie (domaines de données, objets métiers, dépendances entre systèmes). Modéliser ou contribuer à la modélisation des flux de données (fonctionnels, logiques et applicatifs). Appuyer les décisions d’urbanisation visant à simplifier, rationaliser et pérenniser le système d’information. Compétences requisesCompétences techniques et fonctionnelles Gouvernance des données (prioritaire) Expertise en data governance, data management et qualité des données. Maîtrise des référentiels de données, outils de catalogage, gestion des métadonnées et indicateurs QDD. Bonne connaissance des enjeux réglementaires et de conformité, notamment le RGPD. Architecture d’entreprise (complémentaire) Compréhension des principes d’architecture d’entreprise et d’urbanisation des SI (TOGAF ou équivalent apprécié). Capacité à analyser, challenger et formaliser des architectures fonctionnelles, applicatives et data. Compétences en modélisation des données, des processus métiers et des flux inter-applicatifs. Compétences comportementales Excellentes capacités de communication, avec un sens pédagogique affirmé. Aptitude à fédérer et coordonner des acteurs métiers et techniques aux enjeux variés. Rigueur, organisation, autonomie et sens du travail transverse. Capacité à vulgariser des sujets techniques auprès de publics non experts. Expérience Minimum 5 ans d’expérience en Data Governance, Data Management ou pilotage de projets data. Expérience en architecture fonctionnelle ou urbanisation du SI fortement appréciée. Expérience confirmée dans l’animation de comités et la coordination d’acteurs multiples. Rattachement et interactions Rattachement hiérarchique : SDG – Stratégie Digitale et Gouvernance. Interactions principales : équipes métiers, DSI, Data Stewards, Data Owners, architectes d’entreprise, équipes projets. Profil recherché Nous recherchons un(e) professionnel(le) senior de la data, reconnu(e) pour sa capacité à structurer, piloter et faire vivre une gouvernance des données à l’échelle d’une organisation complexe. Le ou la candidat(e) idéal(e) dispose d’une solide expertise en data governance et data management, complétée par une bonne compréhension des enjeux d’architecture d’entreprise et d’urbanisation du système d’information. Il ou elle sait évoluer dans des environnements transverses, multi-acteurs et réglementés, et jouer un rôle de facilitateur entre les métiers et l’IT. Doté(e) d’un excellent sens relationnel, le ou la Responsable opérationnel(le) Data Gouvernance est capable d’animer des instances de gouvernance, de structurer des décisions collectives et d’accompagner le changement avec pédagogie et pragmatisme. À l’aise aussi bien sur des sujets stratégiques que très opérationnels, il ou elle sait prioriser, structurer et sécuriser les enjeux data à fort impact business. Mots-clés Data Governance Gouvernance des données Data Management Qualité des données (Data Quality, QDD) Catalogue de données Métadonnées Référentiels de données RGPD / Conformité réglementaire Data Owners / Data Stewards Pilotage transverse Animation de comités Architecture d’entreprise Urbanisation du SI Modélisation des données Flux de données Architecture fonctionnelle et applicative Transformation data Environnement complexe Coordination métiers / IT
Mission freelance
Data Engineer
Publiée le
Apache Hive
Apache Spark
Argo CD
6 mois
550 €
Paris, France
Rejoignez Mon client banque assurance à Paris pour une mission stratégique au cœur de la plateforme Data du Groupe. Au sein de la squad « Restitutions Réglementaires », vous jouerez un rôle clé dans la mise en conformité et la valorisation des données assurantielles. Votre mission Sous un mode de travail hybride (3 jours sur site), vous piloterez la constitution des déclaratifs réglementaires (FICOVIE, FATCA, ECKERT, etc.). Votre intervention débutera par le chantier prioritaire FICOVIE , en exploitant des sources Big Data et décisionnelles complexes. Environnement Technique & Défis Vous évoluerez dans un écosystème On-Premise (MapR) exigeant : Core : Java 11, Spark, SparkSQL, Hive et Shell. Streaming & Batch : Maîtrise de Kafka (MaprES) pour l'optimisation des flux. DevOps & CI/CD : GitLab, Jenkins, Docker, Kubernetes et ArgoCD. Méthodologie : Agilité à l'échelle (SAFe) via JIRA.
Offre d'emploi
Data Engineer
Publiée le
Ansible
Apache Airflow
Apache Kafka
Île-de-France, France
ntégration au sein de l'équipe Data event Management qui gère les trois offres de services suivantes : - Offre Infra. Kafka sur ITCloud OnPremise - Offre Infra. Kafka sur IBMCloud/dMZR. Activités principales - Construction/Déploiement/Support/MCO des offres autour de la technologie de messaging kafka Méthodologie de Travail - ITIL - Agile/Scrum à l'échelle - Product Based Projets principaux en cours - Transition vers un Nouvel Orchestrateur sur l'Offre Infra Kafka IBMCloud/dMZR basé sur Python et Airflow, Terraform - Extension de l'offre Kafka sur IBMCloud/dMZR avec l'intégration du produit Lenses - Migration du monitoring de l'infrastructure OnPremise de Splunk vers une solution Dynatrace combinée avec ELK. Technologies Utilisées - Outils administratifs: ServiceNow, Jira, Confluence - Infrastructure as Code: Ansible, Terraform - Langages: Bash, java (spring/jhipster), python - Repository: Artifactory - Database: SQL Server, PostgreSQL - Contenairsation: Docker/Kubernetes - Provider Cloud: ITCloud, IBMCloud - Orchestration: Airflow, Autosys, BPM - Versionning: Git - Messaging: kafka - CI/CD: GitLab CI - Operating system: Redhat - Monitoring: ELK, Dynatrace, LogDNA, Sysdig - Sécurité: HashiCorp Vault, Cyberarc
Offre d'emploi
Architecte Technique Senior - Accompagnement Projets & Transformation SI
Publiée le
ArchiMate
Big Data
CI/CD
12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
Contexte de la mission La mission s'inscrit au sein du département Architecture d'un organisme majeur de la protection sociale. Nous recherchons un Architecte Technique Senior (15-25 ans d'expérience) pour rejoindre le pôle Accompagnement et Conformité. Le consultant aura pour responsabilité de faire évoluer l'architecture du SI pour répondre aux besoins utilisateurs tout en assurant l'interopérabilité des nouvelles solutions avec l'environnement existant. Il travaillera en étroite collaboration avec l'Architecture d'Entreprise (Urbanistes) et les équipes d'experts techniques (socles, systèmes, réseaux). Objectifs et livrables Objectifs principaux : La mission consiste principalement à accompagner les projets dans la définition de leur architecture technique en cohérence avec les politiques techniques de l'organisme. Détail des activités : Support aux projets (70% de l'activité) : Accompagner l'élaboration des Dossiers d'Architecture Technique (DAT), contribuer à l'instruction et aux revues d'architecture, et réaliser des études d'impact pour les nouvelles technologies. Démarche d'architecture et conformité : Définir des solutions techniques conformes aux standards et assurer la cohérence avec les briques de production (Gateway, Kubernetes, Middleware...). Collaboration et expertise : Valider les solutions avec les experts techniques et suivre les évolutions des socles. Transformation SI : Accompagner les transformations vers le Cloud et les projets BI / Big Data. Environnement technique : Socle applicatif : JAVA (JEE, Spring, Hibernate), API/SOA (REST, SOAP) Infrastructure & Cloud : Kubernetes, Openshift, Ansible, VMWare, Architecture Microservices. Data (Atout) : Big Data, Spark, Kafka, ELK. Bases de données : PostgreSQL, Oracle, Cassandra.
Mission freelance
Data Platform Engineer
Publiée le
AWS Cloud
Python
12 mois
600-650 €
Paris, France
Télétravail partiel
Objectifs Votre mission est de responsabiliser et de faire monter en compétence notre communauté de plus de 50 data engineers et data scientists. Agissant comme le lien essentiel entre les feature teams et les ingénieurs de la plateforme, vous serez le garant de l’adoption et de l’évolution de notre plateforme data en fournissant un support technique opérationnel, en partageant les bonnes pratiques et en animant des initiatives de partage de connaissances. Grâce à un engagement proactif, un support direct et une collecte continue de feedback, vous favoriserez un environnement collaboratif, innovant et à fort impact — garantissant que notre plateforme s’adapte en permanence et délivre une valeur maximale à ses utilisateurs. Missions principales 1. Support technique : Accompagner les data engineers et data scientists dans leurs problématiques techniques en fournissant des solutions opérationnelles, des conseils, des bonnes pratiques et un support via des interactions directes au sein de leurs équipes. S’assurer que la dette technique est identifiée, comprise et gérée via des plans d’actions, et participer aux tâches sous-jacentes. Fournir des outils pour aider à gérer cette dette (tests, automatisation, agents IA, …). Collaborer avec les équipes data platform et support afin de garantir que les problèmes au sein des pipelines data et de la plateforme data sont identifiés et résolus, améliorant ainsi l’expérience développeur globale. 2. Évangélisation : Promouvoir l’adoption de la plateforme data par une utilisation quotidienne, en démontrant sa valeur auprès des utilisateurs existants. Partager avec la communauté de pratique et les équipes internes les tendances du marché, outils et technologies liés aux plateformes data. 3. Montée en compétences des équipes : Évaluer le niveau actuel des équipes sur les outils et pratiques de la Data Platform et l’améliorer via des formations, des exercices et la résolution de problématiques réelles. Promouvoir et animer une communauté de pratique afin de construire des parcours de formation d’amélioration, des ateliers internes et des webinaires mettant en valeur les capacités de notre Data Platform. Créer du contenu technique tel que des articles de blog, tutoriels, projets exemples et documentation afin d’aider les développeurs à comprendre et utiliser efficacement notre plateforme. 4. Boucle de feedback : Collecter activement les retours de la communauté des développeurs afin de fournir des analyses et suggestions d’amélioration produit aux équipes d’ingénierie de la plateforme. Fournir des tests pertinents pour les actifs techniques produits par les ingénieurs de la Data Platform et s’assurer qu’ils correspondent aux usages actuels des feature teams. Représenter les data engineers et data scientists au sein de l’entreprise, en veillant à ce que leurs besoins et défis soient compris et pris en compte. Qualifications / Compétences requises Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité. Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout. Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente. Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python). Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement. Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés. Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif. Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français. Atouts supplémentaires : Expérience en développement produit agile et en méthodologie Scrum. Expérience de migration de pipelines data vers le cloud. Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud. Environnement technologique : AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … Data engineering : Airflow, Parquet, Apache Iceberg DevOps : Jenkins, SonarQube, Conda Logiciels : Python, Ruff
Mission freelance
Data Engineer
Publiée le
Dataiku
SQL
24 mois
400-550 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Contexte de la mission Au sein de l'entreprise, la Direction des Systèmes d'Information métier (DSIM) est en charge du maintien en conditions opérationnelles et de l’évolution stratégique du Système d'Information dédié à l'assurance vie et à la finance. Enjeux Stratégiques La valorisation de la donnée est au cœur de notre stratégie de transformation pour 2025-2026. Pour soutenir cette ambition, nous recherchons un Ingénieur Data expérimenté, de niveau III pour intégrer l'équipe de développement DATA DSIM. Vous rejoindrez notre nouvelle équipe DATA pour construire, maintenir et optimiser les plateformes et les pipelines de données, garantissant ainsi la fiabilité et l'accessibilité de la donnée pour l'ensemble de l'entreprise. Missions Clés de l'Ingénieur DATA Le consultant Data sera Rattaché(e) au chef de projet de l'équipe, ce sera un contributeur technique essentiel dans le cycle de vie de la donnée. Le consultant sera au cœur du nouveau modèle DATA Les missions principales incluront : Conception de Pipelines (ETL) : Concevoir, développer et optimiser des flux de données robustes et performants (ETL/ELT) pour l'alimentation des entrepôts et des DataMart. Modélisation : Participer activement à la conception et à la mise en œuvre de modèles de données (MCD, modélisation dimensionnelle) adaptés aux besoins métier de l'Assurance Vie. Industrialisation : Industrialiser les processus de préparation, de transformation et de gouvernance de la donnée, notamment via l'outil Dataiku Visualisation et Reporting : Assurer la bonne intégration des données pour leur exploitation dans des outils de Business Intelligence, notamment Tableau. Maintenance et Optimisation : Garantir la performance, la qualité et le maintien en condition opérationnelle de l'infrastructure et des flux de données. Compétences Techniques et Expertise Requises Nous recherchons un profil technique avec une forte appétence pour les outils d'industrialisation de la donnée Domaines de compétences clé Niveau Souhaité : Profil de niveau III exigé. Dans l'idéal une maîtrise de l'outil Dataiku est souhaitée pour la préparation et l'industrialisation des flux. Expertise du langage SQL. Capacité à challenger une solution, chiffrer les couts de réalisation et mener à bien les phases de qualification. Visualisation : Connaissance de l'intégration et de l'optimisation des données pour Tableau (ou équivalent )) Modélisation : Expertise en modèle de données (MCD, dimensionnel) et capacité à les mettre œuvre Expérience solide dans la conception et l'implémentation de processus ETL/ELT Expérience BO / SAS serait un plus dans le cadre des migrations à réaliser. Connaissance du métier de l'assurance vie serait un réel plus également Dispositif Souhaité : 3j sur site à Minima sur Niort des autonomie
Offre d'emploi
Ingénieur DATA F/H
Publiée le
35k-50k €
Niort, Nouvelle-Aquitaine
Ingénieur DATA F/H - Niort Ingénieur Data F/H Rejoignez EXPERIS et contribuez à des projets stratégiques autour de la valorisation de la donnée ! Nous accompagnons nos clients dans leur transformation digitale et nous recherchons un Ingénieur Data expérimenté (niveau III) pour intégrer une équipe dédiée à la construction et à l'optimisation des plateformes et pipelines de données. Votre rôle En tant qu'Ingénieur Data, vous serez un acteur clé dans la mise en œuvre d'un nouveau modèle Data. Votre mission : garantir la fiabilité, la performance et l'accessibilité des données pour des usages métiers stratégiques. Vos principales responsabilités : Conception & Développement : Créer et optimiser des pipelines ETL/ELT pour alimenter les entrepôts et DataMarts. Modélisation : Concevoir et mettre en œuvre des modèles de données (MCD, dimensionnel) adaptés aux besoins métiers. Industrialisation : Automatiser les processus de préparation et transformation des données via Dataiku . Visualisation & Reporting : Intégrer les données pour leur exploitation dans des outils BI (Tableau ou équivalent). Maintenance & Optimisation : Assurer la performance et la qualité des flux et des infrastructures. Votre profil Expérience confirmée en conception et implémentation de processus ETL/ELT. Maîtrise du langage SQL et des outils d'industrialisation (Dataiku). Connaissances en modélisation de données et intégration pour la BI (Tableau). Capacité à challenger les solutions, chiffrer les coûts et garantir la qualité des livrables. Une expérience en BO/SAS et dans le secteur assurance vie serait un plus.
Mission freelance
Développeur Python Fullstack Angular Flask Django F/H
Publiée le
Angular
Django
Flask
3 mois
400-500 €
Île-de-France, France
Télétravail partiel
La mission inclue : • La construction de solutions logicielles de bout en bout en s’assurant de l’optimisation des performances des applications et assurer la qualité du code par des tests unitaires et fonctionnels. • La contribution à la réalisation de Pocs autour de l’utilisation de l’IA générative • La conception d’applications exploitant de l’IA générative à disposition de nos métiers. • Le développement des interfaces utilisateur dynamiques et réactives avec Angular exploitant des données via des traitements complexes • La conception d’APIs en utilisant FastAPI • La maintenance évolutive et le run d’applications existantes • La collaboration avec les équipes de design et de produit pour créer des expériences utilisateur fluides et engageantes quand cela s’avère nécessaire. • La participation à la mise en place de bonnes pratiques de développement et à la documentation des projets. • Des interactions directes avec le métier pour recueillir et challenger les besoins quand le chantier le nécessite. • Solide expérience en développement Python, avec une expertise approfondie des frameworks web tels que Django ou Flask. • Solides compétences en développement Angular. • Solide maitrise de FastAPI et des services web. • Connaissance des bases de données relationnelles et non relationnelles. • Familiarité avec les outils de versionnement de code (Git). • Capacité à travailler en équipe et à communiquer efficacement avec des développeurs, designers et experts en IA. • Connaissance des concepts d’IA Générative et de RAG Nous attendons également les softskills suivantes : • Autonomie • Force de proposition • Travail en équipe • Réactivité • Organisation et rigueur • Bonne communication
Offre d'emploi
Ingénieur Data (Azure Data Factory)
Publiée le
Azure Data Factory
ETL (Extract-transform-load)
Microsoft SQL Server
Paris, France
Télétravail partiel
Dans le cadre d’un projet d’intégration majeur, une phase opérationnelle de migration des données a démarré cette rentrée avec une série de bascule(s) à blanc prévue(s). Vous rejoignez l’équipe data du SI source pour renforcer les travaux de migration et assurer le maintien en condition opérationnelle (MCO) des flux existants. Vos principales missions seront : Participer à la migration des données et aux bascules (à blanc puis production). Développer et maintenir les pipelines ETL/ELT sur Azure Data Factory et/ou SSIS. Concevoir et optimiser les traitements d’alimentation, de transformation et de contrôle qualité des données. Assurer le support opérationnel des flux existants (monitoring, résolution d’incidents, correction). Participer aux phases de recette, validation et suivi de bascule, en coordination avec les équipes métier et techniques. Produire des reportings d’avancement et contribuer à la qualité et la traçabilité des livrables. Travailler en transversal avec les équipes métier pour comprendre le domaine fonctionnel (Assurance / Banque, compte titres, PEA) et garantir la conformité des traitements.
Mission freelance
Data Engineer Industrial (Industry 4.0) - Belgique
Publiée le
Snowflake
1 an
500-550 €
Belgique
Télétravail partiel
Contexte Des sites industriels spécialisés dans la fabrication de composants métalliques de haute précision produisent des pièces critiques en titane, impliquant des opérations d’usinage et de forge extrêmement fines (ordre de grandeur : 10 µm). Une équipe dédiée à la modernisation industrielle est responsable de fournir des outils digitaux et des solutions technologiques avancées en support aux métiers et aux unités de production. Dans le cadre d’un programme ambitieux de modernisation industrielle (Industry 4.0), l’équipe recherche un Data Engineer afin de développer des pipelines de données industriels. L’objectif principal est de concevoir et déployer des pipelines de données (ETL) robustes, scalables et sécurisés, en s’appuyant sur des technologies pérennes, au sein d’architectures hybrides combinant environnements on-premise et cloud. Ce rôle est essentiel pour fiabiliser les flux de données industriels, exposer les données via un Unified Namespace et des APIs robustes, et en permettre l’exploitation à grande échelle dans un contexte sécurisé et opérationnel. Structure du département L’équipe est composée d’ingénieurs spécialisés dans l’interface entre le monde industriel (OT) et les systèmes d’information manufacturiers (IT). Parmi les expertises présentes : IT Platform Manufacturing Execution Systems Unified Namespace (collecte et distribution temps réel) Inspection Qualité Data (BI, Machine Learning, IA, etc.) Attractivité du poste Le projet vise à concevoir et développer la plateforme Manufacturing 4.0 du futur, intégrant notamment : pilotage par la donnée, robotique, intelligence artificielle. Fonction Tâches En collaboration avec les équipes data, IT et métiers industriels, vous devrez : Concevoir & développer des pipelines de collecte de données machines (fichiers, flux, capteurs, MES) Décoder et transformer des données brutes en formats exploitables (JSON, tables analytiques) Implémenter des transformations complexes Développer & déployer des APIs data Industrialiser les solutions via containers & CI/CD GitLab Maintenir les modèles de données & pipelines dans Snowflake Travailler avec les équipes IT pour l’intégration Documenter & partager les bonnes pratiques Challenges Être un acteur clé de la modernisation 4.0 Fiabiliser les flux data issus des machines Concevoir des architectures robustes & maintenables Concilier contraintes industrielles / IT / qualité de données Faire évoluer les pratiques Data Engineering Interactions internes & externes Intégration au sein de l’équipe Manufacturing 4.0 Interactions régulières avec les équipes MES, Qualité, Maintenance, UNS, IT, Cloud Collaboration possible avec des partenaires technologiques externes Mobilité Travail principalement en présentiel sur site industriel Déplacements ponctuels sur un second site de production Télétravail possible jusqu’à 2 jours/semaine selon les besoins
Mission freelance
Data Analyst Expert
Publiée le
6 mois
300-450 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Analyser, structurer et valoriser les données prescriptives du SIP afin de transformer des données issues de documents en référentiels exploitables, au service de la performance et de la décision métier. Objectifs et livrables Responsabilités clés Mettre en qualité et transformer les données prescriptives Réaliser des analyses statistiques descriptives Identifier et structurer les référentiels métier Produire des tableaux de bord et visualisations (Power BI) Restituer les résultats aux commanditaires métiers Travailler en collaboration étroite avec les équipes produit et data Environnement technique Google Cloud Platform (GCP) Outils data et BI Power BI Conformité aux principes data et SI Vision 2035 Compétences attendues Solide expérience en analyse de données Capacité à passer du document à la donnée structurée Bonne compréhension des enjeux métiers Capacité de restitution et de pédagogie Orientation valeur et usage
Mission freelance
Architecte Technique
Publiée le
Data governance
Infrastructure
6 mois
400-640 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de la gouvernance d’architecture, nous recherchons un(e) Architecte Technique SI pour intervenir sur la rédaction des DAT , le cadrage technique des projets et la coordination transverse entre les équipes IT. La mission s’inscrit dans un contexte SI complexe, à forte volumétrie applicative, avec une transition progressive vers le cloud Azure . Objectifs de la mission Rédiger, consolider et faire valider les Dossiers d’Architecture Technique (DAT) Cadrer techniquement les projets en lien avec les besoins métiers Garantir la cohérence technique entre applicatif, infrastructure, réseau et sécurité Coordonner les échanges entre l’ensemble des équipes IT (infra, prod, réseau, sécu, dev, MOA) Périmètre de la mission1️⃣ Rédaction et consolidation des DAT Rédiger les DAT des nouveaux projets (versioning, schémas, prérequis) Consolider les informations techniques collectées auprès des équipes internes Intégrer les retours et arbitrages du Bureau des Architectes SI Défendre les choix techniques auprès des parties prenantes 2️⃣ Cadrage technique des projets Recueillir et analyser les besoins métiers (criticité, usages, pics, dépendances) Étudier les architectures existantes et proposer des évolutions réalistes Définir les prérequis techniques : infrastructure, stockage, VM, réseau, sécurité 3️⃣ Coordination transverse Piloter les échanges avec : Administrateurs systèmes & réseaux Équipes applicatives et production RSSI Urbanistes et architectes d’entreprise Assurer le suivi du cycle de vie projet (cadrage → DAT → mise en œuvre) 4️⃣ Contribution à la cohérence du SI Participer à la construction et à la mise à jour du référentiel d’architecture Appuyer les équipes d’architecture d’entreprise Contribuer à la vision technique long terme (5 à 10 ans) Environnement technique Infrastructure : VMware, serveurs RedHat & Windows Bases de données : Oracle Réseau / Sécurité : Palo Alto Cloud : Azure (contexte hybride en construction) Applications : ~700 applicatifs Datacenter : Interxion Messagerie : Exchange on-premise → hybride
Offre d'emploi
Chef de projet automatisation Loan IQ et IA
Publiée le
IA
1 an
40k-45k €
400-650 €
Paris, France
Télétravail partiel
Descriptif du poste Dans le cadre de la feuille de route de transformation à horizon 2030 définie dans le plan d'industrialisation du GB (hors SPG), l'équipe Transformation est chargée de réaliser des objectifs ambitieux en matière d'économies et d'efficacité opérationnelle. Pour atteindre ces objectifs, nous devons nous doter de profils spécialisés capables de piloter la mise en œuvre d'initiatives clés, notamment au sein des opérations de crédit. Afin d'accélérer notre plan d'industrialisation et de tirer parti de l'automatisation pilotée par l'IA dans Loan IQ, nous recherchons un chef de projet disposant d'une expertise approfondie en automatisation Loan IQ et en opérations de crédit. Ce rôle consiste à cadrer, analyser et déployer des solutions d'automatisation (par ex. : tirages, certificats de transfert, SSI), ainsi qu'à piloter l'identification, la gouvernance et le déploiement mondial des cas d'usage IA, dans une logique d'harmonisation et de scalabilité entre les différents sites.
Offre d'emploi
Data Analyst/Ingénieur BI
Publiée le
Azure
Azure Data Factory
40k-47k €
Nantes, Pays de la Loire
Télétravail partiel
Urgent Type de prestation : expert BI/data analyst Lieu de la mission : NANTES / Le consultant doit obligatoirement habiter à NANTES Télétravail : 2j/s Anglais courant est un + Description et livrables de la prestation En tant qu’Expert(e) BI Entreprise au sein de la DSI de ManpowerGroup (Filiale EXPERIS), vous serez au cœur de l’action. Votre mission ? Prendre en charge les nouveaux besoins de nos interlocuteurs métiers et intervenir sur toutes les phases d’un projet d’ingénierie DATA. Vos responsabilités : • Solution Complète BI Entreprise : Vous serez le référent(e) sur nos solutions BI pour les métiers Finance, AdV, Comptabilité, RH, Recrutement, Services généraux et Commerce. Imaginez les opportunités d’optimisation, de reporting et de modélisation que vous pourrez explorer ! • L’intégration des données et la création de mesures • La conception d’architectures décisionnelles complètes • L’élaboration d’états (reporting), tableaux de bord (dashboard) et modèles sémantiques • La documentation • Le maintien en condition opérationnelle de tout l’existant • L’optimisation constante de nos livrables • Solution Complète BI Opérationnel Client : Ponctuellement, vous plongerez dans notre BI Opérationnel Client, analysant les KPI des centres de relation clients, de la téléphonie au ticketing.
Mission freelance
Data Engineer
Publiée le
Big Data
IA
Java
3 ans
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Tester différents LLM peu importe le provider (aws, gcp, azure) Préparer les jeux de données Définir les conditions de succès et d’échec et paramétre les outils de benchmark (IA tools par exemple) afin de comparer les résultats attendu Faire des développements su les produits de la squaq (Java / Python) L'équipe a pour objectif de savoir reconnaître le maximum de documents clients possible et d'en extraire le maximum de données possibles pour aider le conseiller au quotidien. La squad souhaite élargir son panel de documents reconnus et moderniser les technologies utilisées (LLM notamment).
Mission freelance
Data engineer
Publiée le
Ansible
Apache Airflow
Apache Kafka
1 an
320-330 €
Île-de-France, France
Télétravail partiel
Vous intégrerez l’équipe Data Event Management en charge des offres d’infrastructure de messaging Kafka sur ITCloud OnPremise et IBMCloud/dMZR , avec pour mission de construire, déployer, exploiter et maintenir en conditions opérationnelles les plateformes Kafka du groupe. Vous interviendrez sur des projets structurants incluant la transition vers un nouvel orchestrateur basé sur Python/Airflow/Terraform , l’extension de l’offre Kafka IBMCloud/dMZR avec l’intégration de Lenses , ainsi que la migration du monitoring OnPremise vers une solution hybride Dynatrace + ELK . La prestation s’inscrit dans un cadre ITIL , Agile à l’échelle et Product-Based , au sein d’un environnement moderne mobilisant Kubernetes, Terraform, Git, SQL, Docker, CI/CD GitLab, monitoring (ELK, Dynatrace, Sysdig), sécurité HashiCorp Vault et ITCloud/IBMCloud.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- deduction loyer et contrat de mise à disposition
- Mes données de la CIPAV (trimestre, droit) ont disparues sur lassuranceretriate
- Micro-entreprise après EURL ?
- Ajout d'une deuxième activité en tant que micro-entrepreneur
- domiciliation et etablissement principal
- Compte Autoentrepreneur - Création ou modification
5796 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois