L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 326 résultats.
Mission freelance
Coordinateur Anomalies & Tests RUN SI
Publiée le
Data analysis
Dynatrace
JIRA
24 mois
Paris, France
Télétravail partiel
Poste : Pilotage de projet ou de programme en Assistance Technique, taux journalier Spécialités technologiques : BI, Reporting Secteur d'activité : Assurance Technologies et outils : Jira, Excel (niveau avancé), Power BI, Dynatrace Description de la mission : Renforcer la tour de contrôle opérationnelle pour un nouveau Système d’Information complexe, en assurant le suivi, l’analyse et la coordination du traitement des anomalies et incidents, en lien avec les équipes de tests, production et responsables de chantiers. La mission est opérationnelle, orientée qualité, incidents, remédiation et respect des plannings, sans rôle de PMO. Objectifs : Garantir une prise en charge efficace des anomalies détectées en tests et RUN Sécuriser les plannings de livraison via une maîtrise fine des incidents Assurer une coordination fluide entre tests, production et chantiers Fournir une vision consolidée et actionnable de l’état des anomalies Missions principales : Pilotage et suivi des anomalies : création, qualification, priorisation Analyse des incidents du jour, stock d’anomalies, criticité et impact sur livraisons Consolidation des anomalies et indicateurs dans des outils de pilotage Coordination entre tests et production, en assurant la cohérence avec le planning Coordination avec les chefs de chantiers : prise en charge, remédiation, suivi et animation d’instances Formalisation et diffusion des comptes-rendus et PV, suivi des délais de correction Production de tableaux de bord et synthèses (ex. Excel, Power BI) Animation des communautés opérationnelles (niveau 2) Livrables attendus : Analyse quotidienne des incidents Analyse consolidée du stock d’anomalies Tableaux de bord de suivi des délais, criticité, avancement Comptes rendus des instances de coordination Suivi des plans de remédiation Environnement technique : Jira pour le suivi des anomalies, Excel (niveau avancé), Power BI pour l’analyse et le reporting, Dynatrace pour la supervision et performance.
Mission freelance
Data Analyst CRM – Adobe Campaign (Lille)
Publiée le
Microsoft Power BI
1 mois
Lille, Hauts-de-France
Télétravail partiel
Bonjour à tous, Nous recherchons un Data Analyst CRM pour rejoindre une équipe basée à Lille . L’objectif de cette mission est de concevoir et livrer un maximum de dashboards Power BI , en binôme avec un collaborateur dédié à la partie CRM, afin de fournir des analyses pertinentes et exploitables pour le pilotage des activités marketing. 🔹 Expérience indispensable en CRM 🔹 Connaissance d’ Adobe Campaign fortement appréciée 🔹 Maîtrise de Power BI 🔹 Capacité à travailler en binôme et à comprendre les enjeux marketing/CRM
Mission freelance
Architecte SI applicatif et intégration, Data Flow, API, MFT - Paris - Vorstone
Publiée le
API
API Platform
Enterprise Application Integration (EAI)
2 ans
600-800 €
Paris, France
Télétravail partiel
Architecte SI applicatif et intégration, Data Flow, API, MFT - Architecture SI et gouvernance applicative SI Vorstone recherche un Consultant Senior en Architecture et Intégration IT pour un de ses clients, un groupe international basé à Paris. L' Architecte d’entreprise applicatif et intégration , Data Flow, API, MFT senior sera responsable de toute l’architecture IT y compris data exchange/ API platform management, au sein du paysage IT du groupe. Ce rôle veille à l’alignement des systèmes informatiques avec les objectifs métier, soutient le développement et l’intégration de nouvelles technologies, et maintient l’efficacité opérationnelle des services IT. L’Architecte SI applicatif et intégration, Data Flow, API, MFT sera rattaché au CIO (Directeur des Systèmes d’Information) et joue un rôle clé dans la définition de la stratégie et roadmap IT du groupe. L'objectif est de faire évoluer, rationnaliser et homogénéiser tout le paysage applicatif pour tous les pays suite à de nombreux rachats/Carve-in. 🧩 Responsabilités principales Architecture IT Développer et maintenir l’architecture d’entreprise IT, en veillant à ce qu’elle réponde aux besoins actuels et futurs du business. Définir et mettre en œuvre les standards, guidelines, and best practices architecturales. Collaborer avec les métiers et différentes parties prenantes métier pour identifier et prioriser les améliorations architecturales. Piloter la conception (design) et l’intégration de nouveaux systèmes et technologies, en garantissant une interopérabilité fluide. Superviser l’évaluation et la sélection de solutions technologiques alignées avec les objectifs stratégiques de l’entreprise. Gestion de la plateforme d’API (Mulesoft) & & Opcon Managed File Transfer (MFT) Gérer la plateforme d’API Mulesoft et l’architecture OpCon MFT , en veillant à leur utilisation efficace pour l’intégration des différents systèmes et services IT. Collaborer avec les équipes de développement pour garantir que les APIs et les flux MFT sont conçus et mis en œuvre selon les meilleures pratiques. Identifier les opportunités d’optimisation et d’amélioration de la plateforme d’API et de la solution MFT. Reporting et analyse Préparer et présenter des rapports réguliers sur l’architecture IT, incluant la performance des plateformes API et MFT, à la direction. Analyser les indicateurs clés et les tendances pour identifier les axes d’amélioration et éclairer la prise de décision stratégique.
Mission freelance
Développeur Python AWS - Data & Gen AI ( Databricks)
Publiée le
Amazon DynamoDB
Amazon S3
API
12 mois
550-680 €
Paris, France
Télétravail partiel
Missions principales : Participer à la conception, au développement et à la mise en œuvre de nouvelles fonctionnalités du plan de travail (workplan). Contribuer à la rédaction des spécifications techniques et à la documentation associée. Prendre part à la construction et à l’évolution d’une plateforme data intégrant la gouvernance, l’ingestion, la transformation, le stockage, l’exposition et l’analytique. Intervenir sur les aspects RUN et BUILD de la plateforme en soutien à l’équipe existante. Garantir la sécurité, la performance et la scalabilité des solutions déployées sur le Cloud AWS. Participer à la mise en place de solutions Gen AI au sein de l’écosystème Data/Cloud. Compétences techniques requises : Cloud AWS : maîtrise approfondie des services IAM, S3, DynamoDB, Lambda, API Gateway . Databricks et sa composante AI (Genie) . Développement Backend Python , avec une solide expérience en API / webservices / routes . Maîtrise d’un framework Python (idéalement AWS Powertools for Lambda , Flask ou FastAPI ). Infrastructure as Code : expertise en Terraform et bonne culture DevOps . Expérience dans la mise en œuvre de plateformes data (gouvernance, ingestion, transformation, stockage, exposition, analytics). Excellente capacité de communication écrite et orale en anglais . Compétences appréciées : Certifications AWS : Solutions Architect Associate , Data Engineer Associate et/ou Developer Associate . Connaissances en Power BI , services réseau , Collibra ou React . Sens de la collaboration, autonomie et approche orientée solution. Objectifs et livrables : Contribution à la définition et au développement des features du workplan. Livraison de composants applicatifs fiables et documentés . Participation active aux revues techniques et réunions d’équipe . Support dans la gestion opérationnelle (RUN) et l’ amélioration continue (BUILD) des solutions Cloud & Data.
Offre d'emploi
Consultant BI / Data ANALYST (Cognos , SQL , Snowflake , ETL/ELT ) (H/F)
Publiée le
BI
Cognos
Microsoft Power BI
12 mois
40k-45k €
400-550 €
Paris, France
Dans le cadre de la modernisation de son écosystème Data, notre client déploie une nouvelle plateforme basée sur Azure , intégrant Snowflake et Power BI . Ce projet s’inscrit dans une démarche globale de transformation visant à migrer un volume important de rapports existants provenant d’un ancien environnement on-premise (Datawarehouse + Cognos) vers une infrastructure Cloud plus performant Contexte Dans le cadre de la mise en place d’une nouvelle plateforme Data sur Azure, intégrant Snowflake et Power BI , notre client du secteur bancaire lance un vaste chantier de migration de l’ensemble de ses rapports existants depuis une plateforme on-premise (Datawarehouse + Cognos) vers ce nouvel environnement Cloud. Environ 250 rapports ont été identifiés comme prioritaires. Ils sont principalement utilisés au quotidien par les équipes métiers (recouvrement, fraude, contrôle interne, etc.) via un portail interne. Ces rapports étant essentiels à l’activité opérationnelle, l’objectif est de les reproduire à l’identique , sans refonte fonctionnelle, pour respecter les échéances fixées à août 2025 . Les choix finaux concernant le modèle (datamarts dédiés, vues sur datamart global, etc.) et l’outil de restitution sont encore en cours de définition, et le consultant pourra contribuer à ces orientations. Mission Vous participerez à la reconstruction des rapports sur la nouvelle plateforme Data. Vous travaillerez en étroite collaboration avec deux experts internes (Datawarehouse & Cognos). Vos principales responsabilités :1. Analyse des rapports Cognos existants Étude des frameworks, champs, règles de gestion, filtres et logiques de calcul. 2. Recréation des rapports dans Snowflake / Power BI Construction des couches nécessaires dans Snowflake avec les Data Engineers / Analysts. Création éventuelle de dashboards Power BI (cas limités). 3. Validation et contrôle de qualité Comparaison des résultats Snowflake avec les rapports Cognos. Investigation des écarts avec les référents internes (métier, Data Office, DSI). 4. Documentation Documentation des tables/vues créées (Excel pour alimenter Data Galaxy). Définition et rédaction de la documentation fonctionnelle liée aux rapports.
Offre d'emploi
Chief of staff / PMO for Group Data & AI Office
Publiée le
Microsoft Access
ServiceNow
12 mois
40k-48k €
400-480 €
Valbonne, Provence-Alpes-Côte d'Azur
Télétravail partiel
Contexte de la mission Le client mettre en place son portail employé et ses services RH dans ServiceNow ECPRO et HRSD. Cela permettra de remplacer plus de 10 applications existantes. Nous avons besoin du soutien d’un analyste métier, expert en ServiceNow HRSD et plateforme ECPRO, pour mener des études ponctuelles, proposer des solutions, en collaboration avec plusieurs parties prenantes. The client will implement its employee portal and its HR services in ServiceNow ECPRO and HRSD. This will allow to phase out more than 10 existing applications. We need the support of a business analyst, knowledgeable in ServiceNow HRSD, ECPRO platform to lead ad hoc studies, propose solutions, in interaction with multiple stakeholders.
Offre d'emploi
Développeur(se) Azure Data Fabric confirmé(e)
Publiée le
MySQL
18 mois
40k-45k €
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Transformation digitale ; Gouvernance des données Dans un contexte de transformation digitale orientée data, nous recherchons un profil senior capable de concevoir, développer et maintenir des solutions de traitement et d’ingestion de données sur la plateforme Azure Data Fabric. Vous serez un acteur clé dans l’industrialisation des flux de données, l’optimisation des pipelines, et la mise en œuvre de solutions scalables et performantes. Le poste implique à la fois un rôle opérationnel, d’expertise technique et de leadership sur les bonnes pratiques de l’écosystème Azure. MISSIONS 1. Conception et développement ▪ Participer à l’analyse des besoins métiers et techniques en matière de traitement de données. ▪ Concevoir et développer des pipelines d’ingestion, de transformation et de distribution des données sur Azure Data Factory. ▪ Intégrer les services Azure liés à la Data Fabric qui seront nécessaire : ex : Azure Data Lake Storage Gen2 etc... ▪ Implémenter des modèles de données et des solutions de traitement ▪ Encadrer la modélisation des flux de données complexes (batch et streaming) et proposer des architectures “data-driven” adaptées aux enjeux métiers. 2. Conception et développement de pipelines avancés ▪ Concevoir, développer et maintenir des pipelines avec Azure Data Factory et/ou Azure Synapse Pipelines. ▪ Définir et mettre en œuvre des stratégies de surveillance (monitoring) et d’alerting des pipelines. ▪ Optimiser les performances et les coûts des traitements (partitionnement, parallélisation, contrôle qualité). 3. Support et amélioration continue ▪ Assurer le support dans l’utilisation de la plateforme. ▪ Être force de proposition sur l’optimisation des traitements, la réduction des coûts Azure, et les innovations technologiques. ▪ Suivre la performance et la fiabilité des solutions déployées via Azure Monitor, Log Analytics, Application Insights. Expertise souhaitée Compétences requises : Techniques : ▪ Azure Data Factory - Expert ▪ Azure Data Lake Storage Gen2 - Confirmé ▪ Azure Synapse Analytics (dedicated & serverless) - Confirmé à expert ▪ Azure Event Hub / Stream Analytics - Bonne connaissance ▪ Sécurité Azure & gouvernance - Bonne connaissance ▪ Python / SQL / PowerShell - Confirmé ▪ Architecture Data / Cloud - Expérience significative ▪ PowerBI Confirmé Compétences comportementales : • Bon relationnel et sens de l’écoute • Autonomie et esprit d’initiative • Esprit analytique et rigueur • Capacité à vulgariser les sujets techniques pour les métiers • Esprit d’équipe Profil recherché : ▪ Bac+3 à Bac+5 en informatique, ingénierie, data ou équivalent. ▪ Expérience significative en développement de solutions data sur Microsoft Azure. ▪ Minimum 5 ans d’expérience sur des projets data complexes en environnement cloud (Azure de préférence). ▪ Très bonne connaissance de l’écosystème Azure et de ses services data. ▪ Bonne compréhension des architectures data modernes (data lake, real-time,event-driven). ▪ Sensibilité forte à la performance, la sécurité et la gouvernance des données. ▪ Autonomie, rigueur, curiosité technologique, esprit d’équipe. ▪ Bon niveau de communication, capable d’interagir avec les équipes métiers et IT.
Mission freelance
Directeur de programme DATA/ Product Manager - Montpellier
Publiée le
Backlog management
Cloudera
Data governance
12 mois
550-670 €
Montpellier, Occitanie
Télétravail partiel
Contexte et Mission : Dans le cadre du renforcement de son domaine Data, notre client recherche un Directeur de Projet expérimenté . Placé directement sous le responsable de domaine, le Product Lead est le garant du delivery des data products et responsable de la tenue des promesses faites aux métiers . Le Product Lead assure la qualité et la performance technique des composants de la ligne de produit Data, Analytics & AI, dans le respect des standards de la DSI. Responsabilités : Comprendre techniquement et fonctionnellement la ligne de produit Data, Analytics & AI. Collaborer avec les parties prenantes de la ligne de produit : Delivery Owner, Directeurs de Programme. Participer à l’élaboration de la stratégie de la ligne de produit avec le Responsable de ligne et le Directeur de Patrimoine : dimensionnement équipe, sourcing, choix de solutions, cohérence globale, coûts. Garantir la qualité de la ligne de produit : disponibilité, labels qualité. Maintenir et superviser opérationnellement la ligne de produit. Suivre l’avancement de la FDR (Feuille de Route) de la ligne de produit : communiquer et publier les évolutions et mises en production. Définir la stratégie et la politique d’industrialisation et de maintenance de la ligne de produit. Accompagner les Features Teams pour faire évoluer la ligne de produit. Collaborer avec les équipes agiles : alertes projets, staffing, gestion des charges. Maintenir et mettre à jour la documentation (Wiki, SharePoint, Teams…). Garantir la pérennité technologique de la ligne de produit et réduire la dette technique. Gérer le cycle de vie de la ligne de produit en collaboration avec le Responsable de ligne produit. Être le correspondant privilégié de la DEXO : gestion de crise, proximité des sites partenaires. Localisation et Conditions : Localisation : Montpellier (minimum 2 jours/semaine) Démarrage : ASAP Environnement Technique : Cloudera, SAP Hana/BW, DataBricks, Snowflake, PowerBi, DSS Une connaissance de ces solutions est un plus, mais d’autres stacks technologiques sont acceptables Profil Recherché : Expérience confirmée en pilotage de projets DATA et en management d’équipe . Capacité à comprendre à la fois les enjeux techniques et métiers. Expérience dans l’élaboration de stratégies de lignes de produit et la supervision de leur delivery. Maîtrise des outils de suivi et d’industrialisation des produits Data. Compétences en gouvernance, qualité et pérennité technologique des produits. Excellentes qualités relationnelles pour collaborer avec des équipes multidisciplinaires et des partenaires externes. Capacité à travailler dans un environnement agile et à gérer des priorités multiples.
Mission freelance
Business Analyst Data (Épargne Retraite / Actuariat / SQL / PBI) – RUN PDK
Publiée le
kelia
Microsoft Power BI
Microsoft SSIS
2 ans
400-550 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Business Analyst Data expérimenté pour intervenir sur un programme stratégique de modernisation du SI Épargne. Vous interviendrez au sein du chantier en charge du puits de données consolidant les flux du progiciel de gestion Kelia et alimentant les usages métiers (décisionnel, actuariat, comptabilité, pilotage épargne…). 🎯 Vos responsabilités Suivi de production & qualité de la donnée Mettre en place et suivre les indicateurs d’exhaustivité et de qualité du PDK Définir des contrôles automatiques sur la chaîne de données Construire le morning report et suivre les anomalies de production Prise en compte des besoins métier Analyser les expressions de besoin des équipes métiers Participer aux ateliers et reformuler les besoins Modéliser les objets métiers et définir les règles de transformation des données Kelia Spécifications & Recette Produire les spécifications fonctionnelles détaillées Concevoir les plans de tests et réaliser les recettes de bout en bout Qualifier, documenter et suivre les anomalies Produire les reportings, PV de recette et supports de réunion
Mission freelance
Directeur de Programme Data / IA
Publiée le
Cloudera
Data analysis
Data governance
12 mois
520-660 €
Montpellier, Occitanie
Télétravail partiel
Contexte et Mission : Dans le cadre du renforcement de son domaine Data, notre client recherche un Product Lead / Directeur de Projet expérimenté . Placé directement sous le responsable de domaine, le Product Lead est le garant du delivery des data products et responsable de la tenue des promesses faites aux métiers . Le Product Lead assure la qualité et la performance technique des composants de la ligne de produit Data, Analytics & AI, dans le respect des standards de la DSI. Responsabilités : Comprendre techniquement et fonctionnellement la ligne de produit Data, Analytics & AI. Collaborer avec les parties prenantes de la ligne de produit : Delivery Owner, Directeurs de Programme. Participer à l’élaboration de la stratégie de la ligne de produit avec le Responsable de ligne et le Directeur de Patrimoine : dimensionnement équipe, sourcing, choix de solutions, cohérence globale, coûts. Garantir la qualité de la ligne de produit : disponibilité, labels qualité. Maintenir et superviser opérationnellement la ligne de produit. Suivre l’avancement de la FDR (Feuille de Route) de la ligne de produit : communiquer et publier les évolutions et mises en production. Définir la stratégie et la politique d’industrialisation et de maintenance de la ligne de produit. Accompagner les Features Teams pour faire évoluer la ligne de produit. Collaborer avec les équipes agiles : alertes projets, staffing, gestion des charges. Maintenir et mettre à jour la documentation (Wiki, SharePoint, Teams…). Garantir la pérennité technologique de la ligne de produit et réduire la dette technique. Gérer le cycle de vie de la ligne de produit en collaboration avec le Responsable de ligne produit. Être le correspondant privilégié de la DEXO : gestion de crise, proximité des sites partenaires. Localisation et Conditions : Localisation : Montpellier (minimum 2 jours/semaine) Environnement Technique : Cloudera, SAP Hana/BW, DataBricks, Snowflake, PowerBi, DSS Une connaissance de ces solutions est un plus, mais d’autres stacks technologiques sont acceptables Profil Recherché : Expérience confirmée en pilotage de projets DATA et en management d’équipe . Capacité à comprendre à la fois les enjeux techniques et métiers. Expérience dans l’élaboration de stratégies de lignes de produit et la supervision de leur delivery. Maîtrise des outils de suivi et d’industrialisation des produits Data. Compétences en gouvernance, qualité et pérennité technologique des produits. Excellentes qualités relationnelles pour collaborer avec des équipes multidisciplinaires et des partenaires externes. Capacité à travailler dans un environnement agile et à gérer des priorités multiples.
Offre d'emploi
Data Analyst - Microstrategy - Nantes
Publiée le
Microstrategy
Méthode Agile
SQL
1 an
40k-45k €
400-550 €
Nantes, Pays de la Loire
Télétravail partiel
Nous recherchons un(e) Consultant(e) Data Analyst MicroStrategy pour rejoindre notre équipe et accompagner notre client et les utilisateurs dans la mise en production, la supervision et l’optimisation de leurs solutions décisionnelles. Vous serez garant(e) de la qualité, de la performance et de la conformité des livrables, tout en apportant une expertise technique et un support opérationnel. 🚀 Vos missions Contrôler les livrables MicroStrategy (performances, respect des bonnes pratiques...) avant leur mise en production. Valider le passage en production des éléments conformes. Apporter assistance et conseil aux développeurs dans leurs réalisations. Assurer la supervision de la plateforme MicroStrategy (exécutions, performances, consommation, etc.). Contribuer à l’amélioration continue des services dans un environnement AGILE . Suivi et traitement des demandes utilisateurs (analyse, avancement, résolution). Documentation et mise à jour des récits du Backlog (tableaux de bord, procédures, guides utilisateurs, etc.). Contribution active à l’évolution et à l’optimisation des produits et service
Offre d'emploi
Responsable du service Essais et Prototypes H/F
Publiée le
Data analysis
54k-70k €
Saverne, Grand Est
Télétravail partiel
Les missions : En tant que Responsable de l’Équipe Essais & Prototypes, rattaché(e) directement au service R&D, vous prenez en charge le pilotage opérationnel et managérial des équipes et jouez un rôle clé dans l’évolution des méthodologies de validation des machines. Vous êtes le garant de la cohérence, de l’efficacité et de la fiabilité des essais réalisés. Votre profil fera la différence par les caractéristiques suivantes: Piloter et animer les équipes Essais & Prototypes, en adaptant votre approche managériale aux besoins et profils de chacun. Développer et optimiser les processus d’essais mécaniques, grâce à vos compétences techniques et scientifiques. Proposer, défendre et porter un plan d’amélioration des méthodes et outils de test auprès de la direction (analyse financière, impacts, enjeux, gains attendus). Accompagner les chefs de service dans le renforcement de leur posture managériale et de leur management d’équipe. Assurer une présence terrain régulière, garantissant la bonne remontée d’informations vers les services internes et externes (commerce, marketing, achats, SAV, partenaires…). Analyser les pratiques existantes, définir des règles claires, en assurer l’application et accompagner l’adhésion des équipes. Installer un climat de confiance, de motivation et de performance, permettant à chacun de s’engager avec conviction et ambition. Veiller au respect strict des règles de sécurité sur le terrain et en être le référent.
Mission freelance
Senior Data Scientist - Gen AI - Finance (h/f)
Publiée le
12 mois
650-750 €
75008, Paris, Île-de-France
Télétravail partiel
Vous êtes un Data Scientist expérimenté, spécialisé dans l'IA générique et Python ? Emagine vous offre l'opportunité de guider et de diriger le développement de structures et d'outils efficaces afin de créer des applications d'IA fiables et dignes de confiance dans un environnement bancaire international. Are you an experienced Data Scientist with expertise in Gen AI and Python? Emagine has an opportunity for you to guide and lead the development of effective structures and tools to create reliable, trustworthy AI applications within a global banking environment. As part of an AI-focused emagine team working on Gen AI initiatives that leverage LLMs and advanced techniques to solve complex business problems. You will work on unstructured data from sources such as legal documents and financial trading policies, building solutions that enable accurate and reliable outcomes. Main Responsibilities Lead the design and implementation of Gen AI solutions for text-based and LLM-driven use cases. Develop Python-based tools for data ingestion, modelling, and manipulation of large volumes of unstructured data. Define effective structures and frameworks to ensure reliability and trustworthiness in AI applications. Collaborate with legal and compliance teams to process and model complex datasets. Key Requirements 5+ years of experience in Data Science including international corporate environments. Strong expertise in Python and hands-on experience with LLMs (e.g., Lama 7DB, GPT-4 API). Familiarity with vectorization, chunking, and advanced data modelling techniques. Knowledge of tools such as PySpark, MongoDB, graph databases, SparkleDP. Self-driven, proactive, and comfortable working in a fast-paced environment. Nice to Have Exposure to legal or procedure-focused applications. Other Details Work is a minimum of 3 days per week on-site (8th). Apply with your latest CV or reach out to Brendan to find out more.
Mission freelance
Architecte Entreprise SI (Secteur Energie / Industrie)
Publiée le
Amazon S3
Apache Kafka
API
12 mois
700-810 €
Paris, France
Télétravail partiel
Notre client acteur majeur de l’agro-industrie, conduit une transformation SI d’envergure autour de la modernisation et de l’interopérabilité de son système d’information : Migration vers le cloud public Azure Mise en place d’une Data Platform Open Source (OpenShift, Kubernetes, Kafka, S3, etc.) Déploiement d’une plateforme d’interopérabilité (iPaaS) pour fluidifier les échanges inter-BU Modernisation de SAP et rationalisation des briques techniques Introduction d’un outil d’EAM (type LeanIX) pour la gouvernance du SI Le SI du groupe est complexe, hétérogène et distribué , avec des interactions entre environnements industriels, applicatifs et cloud, dans un contexte international et multi-BU . 🎯 Objectif du poste L’Architecte d’Entreprise interviendra en appui transversal des projets et participera à la structuration de la gouvernance d’architecture . Il combinera vision stratégique (urbanisation, standards, cartographie) et accompagnement opérationnel des projets IT. 🧱 Missions principales1. Accompagnement des projets IT (≈ 70%) Accompagner les équipes projets dans leurs choix d’architecture et de solutions. Garantir l’alignement avec les standards et la cohérence globale du SI. Soutenir la formalisation des besoins métiers et leur traduction en orientations techniques. Documenter les choix d’architecture dans un cadre structuré et partageable. 2. Cartographie du SI (≈ 30%) Élaborer et maintenir les cartographies du SI : métiers, applicatives, techniques et infrastructure. Mettre à disposition des représentations claires et synthétiques pour la prise de décision et la gouvernance SI . 3. Normes et Standards Définir et maintenir les principes directeurs et standards d’architecture . Garantir la cohérence, la sécurité et la maintenabilité du SI dans le temps. ⚙️ Environnement technique & organisationnel Cloud : Azure (IaaS, PaaS, intégration applicative) Data Platform : OpenShift, Kubernetes, Kafka, S3… Interopérabilité : plateforme iPaaS en cours de déploiement ERP : SAP (modernisation en cours) EAM : LeanIX (ou équivalent) Contexte : international, multi-pays, multi-langues, multi-BU 🧩 Compétences attenduesTechniques Maîtrise de l’ architecture d’entreprise et d’application (TOGAF, ArchiMate, LeanIX…) Bonne connaissance des écosystèmes Cloud Azure et environnements hybrides Capacité à formaliser des cartographies SI et modèles d’architecture Maîtrise des modèles d’intégration et d’interopérabilité (API, ESB, iPaaS, etc.) Comportementales Esprit d’analyse, de synthèse et de leadership Diplomatie et capacité à challenger sans bloquer Excellente communication orale et écrite Autonomie, rigueur et orientation résultats
Mission freelance
Expert informatica - Cloud Data intégration
Publiée le
Cloud
Informatica
36 mois
500-570 €
Niort, Nouvelle-Aquitaine
Installer et paramétrer les solutions Informatica PowerCenter et PowerExchange . Mettre en place les connecteurs vers différentes sources de données : DB2, Oracle, SAP, CDC . Assurer la gestion des incidents et le support aux projets . Accompagner les équipes de support au développement. Documenter les procédures d’exploitation. Participer à des projets de montée de version des solutions Informatica. Intervenir dans un environnement multi-sites (3 DataCenters) sous Linux et Windows .
Mission freelance
240435/Ingénieur/expert technique réseau datacenter & sécurité - NIORT
Publiée le
Data Center
3 mois
330-350 £GB
Niort, Nouvelle-Aquitaine
Ingénieur/expert technique réseau datacenter & sécurité Niort Connaissance des environnements de production sur une architecture d’intégration on-premise (systèmes d’exploitation, virtualisation, bdd, téléphonie). Connaissance des outils et processus d’automatisation et d’industrialisation La connaissance des outils de sécurisation SSI (Siem, EDR ; NDR) serait un + Profil Vous avez une formation supérieure Bac +3/Bac +5 en informatique. Vous justifiez d'une expérience de 8 à 10 ans minimum au sein d’un ou plusieurs SI Contexte du Poste : Le système d’information de mon client est en constante évolution. Au sein de la Direction des systèmes d’information ; et plus particulièrement au sein du Département « Architecture, Infrastructure, Exploitation et Sécurité du SI », vous viendrez renforcer l’équipe en place. Vous apporterez ainsi votre expérience d’intégrateur technique sur le périmètre réseau datacenter & sécurité » - (Idéalement dans le milieu bancaire). Missions : Contribuer à la maitrise du Système d’Information et : Gérer le maintien en condition opérationnel sur le périmètre réseau & sécuritél Maitriser l’usage et l’intégration des équipements de sécurité (Waf, firewall, load-balancer et commutateurs) pour gérer les flux au quotidien Avoir de bonnes connaissances des principes de sécurisation des systèmes (certificat, chiffrement, mécanisme d’authentification renforcée) Gérer l’intégration de nouveaux socles techniques, dans le respect de la cohérence d’ensemble du système et de la sécurité du SI Gérer des projets techniques sur le domaine concerné Maintenir les référentiels (documentation technique) Communiquer sur l’avancement des activités de MCO et Projets Assurer l’amélioration continue dans une logique d’amélioration de la performance globale et de la sécurisation Compétences : Compétences techniques Réseaux : Gestion d’infrastructures Datacenter (firewall, équilibreur de charge, Waf , routeurs) Gestion d’infrastructures LAN et WiFi Gestion des équipements de sécurité d’accès au réseau (802.1X, radius). Connaissance des environnements de production sur une architecture d’intégration on-premise (systèmes d’exploitation, virtualisation, bdd, téléphonie). Connaissance des outils et processus d’automatisation et d’industrialisation La connaissance des outils de sécurisation SSI (Siem, EDR ; NDR) serait un + Profil Vous avez une formation supérieure Bac +3/Bac +5 en informatique. Vous justifiez d'une expérience de 8 à 10 ans minimum au sein d’un ou plusieurs SI
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
1326 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois