L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 778 résultats.
Mission freelance
Data Engineer Senior – Databricks / AWS / Airflow (Core Data Platform)
CHOURAK CONSULTING
Publiée le
Apache Airflow
AWS Cloud
CI/CD
3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe Data stratégique au sein d’un acteur international, avec des enjeux forts autour de la performance financière et de la fiabilité des données RH & Finance . 🎯 Contexte de la mission Vous intégrerez une équipe Core Data Product composée d’un Product Manager et de plusieurs Data Engineers. La Data est au cœur des décisions stratégiques. L’équipe est actuellement engagée dans une revue globale de son architecture et de sa modélisation , avec un objectif clair : moderniser la plateforme et transformer la stack legacy vers les nouveaux standards Data Platform. ⚙️ Missions principales Concevoir, construire et maintenir des pipelines et infrastructures data robustes et performantes . Optimiser l’architecture et la modélisation des flux. Participer à la transformation vers les nouveaux standards de la Data Platform. Garantir la qualité, la fiabilité et la gouvernance des données (Finance & HR). Assurer un RUN de qualité selon le principe “You build it, you run it”. Promouvoir les bonnes pratiques : CI/CD, revue de code, qualité du code . Garantir la sécurité et la conformité des données (RGPD). Évoluer en environnement Agile au sein d’une équipe internationale (anglais quotidien).
Mission freelance
Ingénieur de production / DevOps
Ness Technologies
Publiée le
Administration Windows
Azure
DevOps
6 mois
Yvelines, France
🧩 Le contexte Vous intervenez au cœur d’un environnement de production exigeant, au sein d’équipes organisées en mode agile (squads) , avec un fort niveau d’exigence sur la disponibilité, la qualité de service et la sécurisation des opérations . Votre rôle est clé : vous êtes le garant du bon fonctionnement de la production , en lien direct avec les équipes techniques, les métiers et les parties prenantes. 🚀 Vos responsabilités 🔄 Piloter les changements (Change Management) Orchestrer les changements via ServiceNow (Metis) Évaluer les impacts techniques et métiers Sécuriser les mises en production (MEP) Contribuer aux estimations projets Assurer une communication claire auprès des clients et équipes 🚨 Assurer la continuité de service (Incident Management) Prendre en charge les incidents critiques Coordonner les actions de résolution multi-équipes Garantir le respect des SLA Communiquer efficacement en situation de crise (≤ 2h) Participer aux cellules de crise Produire des analyses post-mortem 🔍 Améliorer durablement la production (Problem Management) Identifier les causes racines (RCA) Piloter les plans d’actions correctifs Proposer des optimisations techniques pérennes Réduire la récurrence des incidents ⚙️ Contribuer à la gouvernance & au suivi Maintenir la CMDB à jour Participer aux rituels agiles (daily, backlog, etc.) Alimenter le Product Owner et le management Produire des reportings opérationnels 🛠️ Stack technique Systèmes : Windows, Unix, Linux DevOps : GitLab, Jenkins, Artifactory, SonarQube, Vault ITSM : ServiceNow Méthodo : Agile / Run / Production critique
Mission freelance
Data Engineer Senior GCP
TEOLIA CONSULTING
Publiée le
Apache Airflow
Architecture
BigQuery
3 mois
Paris, France
Nous recherchons un Data Engineer Senior pour intervenir au sein d’une plateforme Data stratégique dans un environnement numérique à forte volumétrie. Vous intégrerez une équipe composée d’un Product Owner, d’un Data Steward et de Data Engineers, au cœur d’une architecture cloud moderne orientée scalabilité, gouvernance et performance. Vos missions : Participer aux phases de conception et de planification des développements data Concevoir et maintenir des pipelines data robustes et scalables Collecter et centraliser des sources de données hétérogènes Structurer et optimiser le stockage des données Mettre en place des infrastructures scalables sur Google Cloud Platform Construire et maintenir les workflows CI/CD Garantir la sécurité, la conformité et la stabilité des environnements Contribuer aux initiatives de gouvernance des données Documenter les développements et partager les bonnes pratiques Accompagner les équipes internes dans l’exploitation des données Environnement technique : Google Cloud Platform (BigQuery, Dataproc, PubSub, Cloud Storage) Dataplex Universal Catalog Python SQL Spark Airflow Delta Lake Terraform / Terragrunt Gitlab / Gitlab CI/CD Méthodologies Agile (Scrum ou Kanban) Mission en environnement structuré avec forte exigence de qualité, de performance et de conformité réglementaire.
Mission freelance
Chef de projet IT DevSecOps / Framework (Senior)
VISIAN
Publiée le
CI/CD
DevSecOps
1 an
400-670 €
Île-de-France, France
Dans le cadre d’un programme de transformation IT d’une grande institution financière, nous recherchons un Chef de projet IT Dev Framework afin de renforcer l’intégration de la sécurité au sein du cycle de développement logiciel. Contexte : Le projet vise à harmoniser les outils et processus DevOps en intégrant les enjeux de sécurité dès la conception, sur des environnements variés : cloud public, cloud privé/souverain et architectures conteneurisées. Vos missions : Piloter la mise en place d’un IT Dev Framework orienté sécurité ; Collaborer avec les équipes IT, sécurité et métiers ; Intégrer les bonnes pratiques DevSecOps dans les cycles de développement et de déploiement ; Définir et structurer un guide/framework Dev sécurisé ; Accompagner les équipes dans l’adoption des standards et outils.
Mission freelance
Project Manager - Project Lead IT/Métier
STHREE SAS pour HUXLEY
Publiée le
32 mois
75001, France
Vos missions : Pilotage opérationnel : Organiser, animer et coordonner les comités de gouvernance et les ateliers projet Assurer le suivi du projet et de la roadmap Gérer la communication projet et rédiger les compte rendus / Minutes of Meetings Piloter les campagnes de tests Reporting & gestion auprès du top management : Produire les reportings de pilotage et d'avancement Identifier, remonter et suivre les risques, alertes et plans de mitigation Assurer le suivi budgétaire Profil recherché Minimum 5 ans d'expérience en gestion de projet IT Expérience confirmée sur un poste similaire (Business Analyst / Data / Recherche financière). Solide background en IT Excellentes capacités de communication (publics variés) Diplômé d'une école d'ingénieurs ou Master (Bac +5 minimum en finance, ingénierie financière, data ou équivalent) Connaissance des organisations IT Maîtrise de JIRA / Wiki, PowerPoint Pratique des méthodes Agile / Scrum
Mission freelance
Analyste Fonctionnel - SAP CO
Cherry Pick
Publiée le
SAP
SAP CO
SAP S/4HANA
12 mois
580-630 €
Paris, France
Afin de renforcer les équipes de la Direction des Systèmes d’Information (DSI) du Groupe, le client recherche un(e) Analyste Fonctionnel Senior SAP CO– H/F au sein de la DSI Description du poste : Rattaché(e) au Responsable Domaine Fonctionnel Finance, Controlling & Procurement, votre rôle sera de contribuer au maintien et à l’évolution fonctionnelle du périmètre SAP CO sous S/4Hana, pour l’ERP SAP Groupe (environnement multisites), de l’ensemble des processus et fonctionnalités du périmètre Finance et Contrôle de gestion industriel. Grâce à votre esprit d’analyse et de synthèse, à votre rigueur et à votre capacité de communication vous menez vos missions avec succès : Réalisation des analyses fonctionnelles générales et détaillées afin d’assurer la mise en cohérence des applications avec Ies orientations IT, les objectifs d'amélioration et les processus / règles de gestion définis par le Métier ; Paramétrage de SAP (CO-CEL, CO-CCA, CO-PC, CO-PA, EC-PCA, FI-GL) et recettes fonctionnelles ; Interface avec les équipes projets ou TMA et s’assurer de la bonne prise en compte des spécifications ; Formation des utilisateurs ; Assistance et support aux utilisateurs dans le cadre des projets et maintien en condition opérationnel (MCO). Garant(e) du maintien des connaissances fonctionnelles et techniques nécessaires à la pérennité des applications.
Offre d'emploi
Expert-e Stockage
Blue Soft
Publiée le
50k-60k €
Charenton-le-Pont, Île-de-France
Dans le cadre de recrutement sur profils ou sur missions et à l'intention de nos clients grands comptes du CAC40, BLUE SOFT Cloud Infrastructure recherche plusieurs profils aussi bien confirmés qu'Architecte sur les solutions de Stockage. Vous serez amené·e à réaliser les activités suivantes : - Etude et mise en oeuvre des infrastructures de Stockage (build) - Administration, exploitation, et maintien en conditions opérationnelles de ces infrastructures (run) - Support N3 et éventuellement des astreintes (suivant mission/client) - Automatisation et supervision des processus de stockage, remontées d'alerte - Audit des infrastructures SAN & Stockage - Rédaction de documentations techniques (documents d'architecture ou d'exploitation...) Vous êtes familier des processus ITIL et du respect des engagements dans le cadre de KPI/SLA.
Offre d'emploi
Ingénieur Marchine Learning (ML)
KEONI CONSULTING
Publiée le
Gitlab
Python
SQL
18 mois
20k-60k €
100-500 €
Paris, France
Contexte La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateur et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Afin d’améliorer la personnalisation de l’expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basée sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : 1. Créer un premier cas d’usage en lien avec la personnalisation de l’expérience utilisateur 2. Déployer ce projet et AB tester en production 3. Mettre en place un monitoring et un contrôle des performances En interaction avec les membres de l’équipe, la mission consiste à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l’évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe Expertises demandées pour la réalisation de la prestation : Au moins 3 ans d’expérience dans un environnement data / machine learning Expériences dans le déploiement en production de modèles de machine learning Expériences sur la Google Cloud Platform Expériences avec des technologies de type Flask ou FastAPI Maîtrise des langages Python et SQL Solides connaissances en data : structures de données, code, architecture Connaissances de l’infrastructure-as-code (Terraform) Connaissances du Machine Learning, des concepts liés à l’IA Connaissances des technologies liées à l’IA : tensorflow, sklearn etc Connaissances de Gitlab et Gitlab CI/CD Capacité à vulgariser et à communiquer sur des aspects purement techniques Pratique des méthodes Agile : de préférence Scrum ou Kanban
Mission freelance
Tech Lead Sénior SAP S/4 module FICO
BEEZEN
Publiée le
SAP
1 an
400-550 €
Île-de-France, France
En tant qu’expert solution SAP S/4 HANA FI-CO, votre mission consistera à coordonner les différentes équipes afi n d’assurer les évolutions et les corrections nécessaires, et à fournir l'appui technique et fonctionnel nécessaire à l’ensemble des parties prenantes pour piloter les travaux sur les plateformes FI-CO utilisées par les acteurs Finances. ● Assurer l’interface entre les utilisateurs métiers, les équipes Product / Tech, la TMA, l’éditeur dans le respect des engagements de service contractés ; ● Etre force de proposition pour conseiller la TMA et les utilisateurs sur les solutions à mettre en place dans le respect du standard du produit ; ● Veiller à la maintenabilité de SAP S/4 dans la durée (respect du standard SAP, limitation des spécifi ques, mise à jour documentation, développements spécifi ques, veiller au maintien de la documentation des évolutions au fil de l’eau); ● Assurer la cohérence technico-fonctionnelle de l’écosystème SAP au sein du SI Finances et des SI internes et externes tiers ; ● Contribuer aux projets transverses (méthodologie, nouveaux outils, etc.) de la Digital Factory. ● Coordonner, prioriser et suivre la mise en oeuvre des demandes d’évolutions pour délivrer de la valeur aux utilisateurs ● Coordonner, prioriser et suivre le backlog des incidents / demandes de service en s’assurant du respect des SLA par la TMA et le Support ; ● Rédiger ou valider les spécifi cations techniques et fonctionnelles à destination de la TMA (N3) ; ● Rédiger ou valider les procédures à destination du support (N1, N2) ; ● Piloter la TMA SAP en visant un niveau de delivery fl uide et conforme aux engagements ; ● Assurer la relation avec l’éditeur SAP. ● Connaissance des méthodes de gestion de projet en Agilité (Scrum, Sprint Planning,Backlog...)
Offre d'emploi
Analyste Senior Finance & Systèmes d'Information
Ipanema Technology
Publiée le
API REST
Microsoft Power BI
Salesforce
3 ans
40k-45k €
110 €
Paris, France
Au sein de la Direction Finance du Groupe, le/la titulaire du poste contribue à la fiabilité et à l'optimisation des processus financiers en s'appuyant sur l'écosystème d'outils du Groupe : Salesforce, Frisbee, Kancur et les intégrations API entre systèmes. MISSIONS PRINCIPALES Analyse et pilotage financier – Produire et analyser les reportings financiers périodiques à destination du Comité de Direction – Contribuer aux exercices de clôture, budget et forecast dans le respect des normes IFRS – Assurer le suivi de la performance financière des entités du Groupe et formuler des recommandations – Participer à l'élaboration des états financiers consolidés du Groupe AXA Salesforce – CRM & données financières – Administrer et exploiter Salesforce pour le suivi des revenus, pipelines et facturation inter-entités – Concevoir et maintenir les tableaux de bord et rapports Salesforce à destination de la Direction Finance – Garantir la qualité et la cohérence des données financières dans le CRM à l'échelle Groupe Frisbee – Gestion financière opérationnelle – Piloter les processus financiers automatisés via Frisbee et assurer leur bon fonctionnement – Paramétrer et maintenir les flux entre Frisbee et les autres systèmes du Groupe – Former et accompagner les équipes Finance locales sur l'utilisation de l'outil Kancur – Consolidation & reporting Groupe – Utiliser Kancur pour la consolidation et le reporting financier multi-entités au niveau Groupe – Assurer la cohérence des données entre Kancur et les référentiels financiers du Groupe – Optimiser les modèles de consolidation et contribuer aux projets d'évolution de l'outil Intégrations API & architecture des données financières – Concevoir et maintenir les flux d'intégration entre Salesforce, Frisbee, Kancur et les ERP du Groupe via API – Collaborer étroitement avec AXA Group Operations (IT) pour les développements d'interfaces – Documenter les flux de données et garantir leur fiabilité dans un contexte multi-entités et international COMPÉTENCES REQUISES Compétences techniques – Salesforce (niveau avancé) – Frisbee – Kancur – API REST / SOAP / JSON – Normes IFRS – Excel avancé / Power BI / SQL (atout) Soft skills & valeurs AXA – Rigueur et fiabilité dans la gestion des données – Esprit analytique et sens des priorités – Autonomie et leadership en environnement complexe – Aisance dans un contexte multiculturel (60+ nationalités au GIE) – Capacité à vulgariser des sujets techniques – Anglais courant indispensable
Offre d'emploi
Chef de projet technique création d'un portail IA
KEONI CONSULTING
Publiée le
Azure
Python
RAG
18 mois
20k-60k €
100-550 €
Paris, France
Contexte du besoin : Le client cherche à structurer ses projets de valorisation des données et d’innover au travers de l’accès à différentes IA. L’équipe Gouvernance et mise en oeuvre de l'IA, est à ce titre, en charge de la mise en œuvre. l’équipe Gouvernance et mise en oeuvre de l'IA est en charge : - de gouverner l’utilisation des IA au sein de l’entreprise - de définir une stratégie d’utilisation des IA génératives en fonction des risques ou de contraintes portées par les données sources - d’optimiser les coûts d’utilisation à tout moment dans un contexte Cloud (FINOPS / MLOPS) - de mettre en place une chaîne CI/CD des projets IA MISSIONS Au sein de l’équipe ""Gouvernance et Mise en oeuvre de l'IA"" composée de 6 personnes, l'assistance technique a pour objectifs d'effectuer la maintenance corrective et évolutive du portail IA . Une bonne partie de nos utilisateurs étant non techniques et peu familiarisés avec l'IA, il lui sera demandé d'aider à la réalisation ou à la mise au point des prompts à partir des besoins exprimés par les utilisateurs. Il sera amené à prendre en charge les tickets d'incidents ou d'assistance de niveau 1 (voire 2 selon profil) aux utilisateurs du portail. Cette mission pourra impliquer de collaborer avec d'autres compétences d’experts techniques ou fonctionnels, en dehors de l'équipe, en fonction des thématiques traitées. Un bon relationnel est indispensable afin de savoir prêter assistance à utilisateurs non technique, notamment en sachant adapter son discours et aider à la rédaction de la documentation. TACHES - La maintenance adaptative et corrective de la partie Front du portail IA : o en mettant à jour ou en améliorant le catalogue d’assistant IA existant en fonction des besoins utilisateurs o en proposant des pistes d'améliorations à apporter aux IHM pour améliorer l'expérience utilisateur - La maintenance corrective de la partie Back du portail IA permettant : o la création et l'exposition de nouveaux assistants IA par les utilisateurs avec contrôles d'accès o la maintenance et l'évolution des mécanismes de supervision et de suivi de consommation d'IA par les utilisateurs o la maintenance et l'évolution des mécanismes d'exposition des assistants IA en API pour utilisation par les applicatifs métiers - La réalisation d’assistants IA préconfigurés en fonction des types de besoins remontés par les ambassadeurs IA et les utilisateurs non techniques o en réalisant des assistants IA à partir d'expressions de besoins fournis o en apportant des améliorations à l'ingestion de documents ou de bases de connaissances afin d'améliorer la qualité des réponses en sortie des assistants ou agents IA o en proposant des améliorations des prompts utilisateurs pour améliorer la précision du résultat ou diminuer les coûts - L'assistance technique et la résolution d'incidents en cas de remontée de dysfonctionnements de la plateforme (support niveau 1 & 2 selon profil) o en analysant la cause du dysfonctionnement à partir des logs applicatives (avec escalade vers les autres membres de l'équipe au besoin) o en proposant des mises à jour du parcours d’accueil et d'accompagnement des utilisateurs afin de limiter les causes de remontées des utilisateurs o la mise à jour de la FAQ en fonction des retours des utilisateurs" PROFIL : Une expérience significative d'environ 6 mois de RAISE, ou de sa stack applicative, est un prérequis indispensable au démarrage de la mission (Python, React, Langchain, LangGraph, LangFuse, FastAPI, Celery/Redis, RAGAS, Docling (PDF/OCR), Docker)
Offre d'emploi
Data Engineer confirmé
ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL
1 an
40k-45k €
100-400 €
Nantes, Pays de la Loire
Contexte de la mission Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
Offre d'emploi
Data Engineer confirmé
ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL
1 an
40k-45k €
100-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
Mission freelance
Développeur AZURE Data Factory pipelines données et optimisation SQL et BDDR
Clémence Consulting
Publiée le
Azure Data Factory
Microsoft SQL Server
3 mois
Paris, France
ROLE ET RESPONSABILITE : La mission comprendra les tâches suivantes : · Créer et optimiser des bases de données (SQL Server principalement). · Prendre en charge les développements de scripts SQL/Procédures. · Prendre en charge les développements des pipelines Azure Data Factory. · Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality). · Être force de propositions sur les optimisations de traitement · Rédaction de la documentation (spécifications techniques), recettes. · Gestion du code source via Microsoft Devops et déploiement CI/CD. · Préparation des livrables pour les mises en production.
Offre d'emploi
Intégrateur DevOps - SI assurance H/F
VIVERIS
Publiée le
40k-55k €
France
Contexte de la mission : Nous vous proposons une mission d'intégrateur DevOps passionnante, au coeur de la transformation digitale d'un secteur essentiel et en pleine mutation : l'assurance. Vous aurez l'opportunité de travailler sur des projets à forte valeur ajoutée, en collaboration avec des équipes dynamiques. Vous serez responsable de l'évolution des infrastructures et des outils CI/CD, tout en contribuant à l'optimisation des processus et à la mise en place de solutions innovantes. Au sein d'une équipe d'une vingtaine de personnes, dans un environnement de travail stimulant, vous serez directement en charge des projets, du maintien en condition opérationnelle et de tâches d'intégration sur un périmètre de 2 à 6 applications, critiques et stratégiques. Mêlant environnements On Premise et Cloud, c'est une mission parfaite si vous êtes à la recherche d'une mission de transition vers le Cloud. Responsabilités : - BUILD : configuration Cloud, migrations d'applications, levée d'obsolescences ; - INTEGRATION : prendre en charge des intégrations applicatives sur un ensemble d'environnements, dont la production ; - RUN / SUPPORT : assurer le N2 en cas d'incidents ; - ANALYSE : compréhension des problématiques techniques mais également de l'architecture globale des applications confiées.
Offre d'emploi
Technical Leader Génie Civil – Postes HTB / HTA (F/H)
CITECH
Publiée le
Electronique
JIRA
12 mois
43k-60k €
260-400 €
Lyon, Auvergne-Rhône-Alpes
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet d’infrastructure énergétique d’envergure, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Technical Leader Génie Civil – Postes HTB / HTA (F/H). 🚀 🚡 Notre client est un acteur industriel majeur intervenant sur des projets d’équipements électriques à forte criticité (postes de transformation et data centers). Dans un contexte de croissance et de modernisation des infrastructures, il renforce ses équipes afin de piloter la conception et la coordination technique des bâtiments de postes électriques en environnement BIM. 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔹 Concevoir les bâtiments de postes HTB / HTA (implantation, volumétrie, accès, flux) en fonction des contraintes techniques et de site 🔹 Intégrer les équipements électriques (transformateurs, appareillages, chemins de câbles, ventilation, sécurité incendie, gestion des huiles, etc.) dans la conception bâtiment 🔹 Produire ou piloter les études génie civil : plans d’implantation, structures, réservations, drainage, fosses transformateurs, voiries et clôtures 🔹 Structurer et piloter la démarche BIM côté bâtiment/génie civil (conventions BIM, niveaux de détail, échanges IFC) 🔹 Modéliser ou superviser les maquettes sous REVIT et assurer la synthèse avec les disciplines électricité, CVC, SSI et VRD 🔹 Coordonner les bureaux d’études et entreprises partenaires, animer les réunions techniques et valider les documents d’exécution 🔹 Apporter un support technique aux équipes travaux et participer aux phases chantier (visites de site, visas de plans, gestion des modifications) 🔹 Consolider le DOE génie civil en cohérence avec la maquette BIM 🔹 Garantir le respect des normes (Eurocodes, sécurité incendie, sismique, réglementations industrielles) et participer à l’amélioration continue des standards techniques
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2778 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois