Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 575 résultats.
Freelance

Mission freelance
Architecte SI - Data / Cloud (H/F)

Publiée le
SI

6 mois
800-900 €
Toulouse, Occitanie
Télétravail partiel
Notre client, acteur majeur du secteur aéronautique, crée un nouveau poste d’Architecte SI Data & Cloud (H/F) dans le cadre du renforcement de sa stratégie de modernisation autour de la donnée, du cloud et des architectures distribuées. Ce poste s’inscrit dans un contexte de structuration : les équipes et les pratiques d’architecture ne sont aujourd’hui pas encore clairement identifiées, et le futur Architecte aura un rôle clé dans leur définition, leur alignement et leur montée en maturité, en particulier sur les sujets data, cloud et microservices. Vos missions Rattaché à la Direction IT et en lien direct avec les équipes techniques et métiers, vous serez en charge de : • Structurer et coordonner les architectures Data & Cloud existantes tout en harmonisant les pratiques, • Définir le cadre et les processus d’architecture en collaboration avec les parties prenantes, avec un focus sur les environnements cloud et les approches microservices, • Mettre en place une gouvernance efficace et contribuer à l’application de la politique IT et Data, • Accompagner la montée en compétence et la structuration des équipes sur les technologies data, cloud et conteneurisation, • Contribuer à la stratégie de gouvernance des données, à la définition des architectures distribuées et à la cohérence globale du SI. Compétences techniques requises • Expérience confirmée en architecture Data, Cloud et microservices (technique et fonctionnelle), • Bonne compréhension des besoins métiers et capacité à définir des spécifications adaptées aux usages data, • Connaissances en data gouvernance, data management et conception d’architectures distribuées, • Maîtrise des environnements Cloud (Azure, AWS ou GCP) et des solutions de conteneurisation (Kubernetes, Docker), • Anglais professionnel apprécié.
Freelance
CDI

Offre d'emploi
Data Engineer / Data Analyst Senior – Environnement Cloud & Big Data

Publiée le
Cloud
Data analysis
Microsoft Power BI

3 ans
75017, Paris, Île-de-France
Nous recherchons un expert data capable de concevoir, structurer et optimiser des solutions data modernes pour accompagner la croissance et les enjeux business d’une organisation en pleine transformation numérique. Votre rôle sera central : transformer la donnée en levier stratégique, garantir sa qualité et développer les pipelines, modèles et analyses qui permettront aux équipes métiers de prendre de meilleures décisions. 🎯 Livrables & responsabilités Concevoir et mettre en œuvre des solutions data complètes pour répondre aux besoins business. Analyser, interpréter et valoriser des données complexes pour produire des insights actionnables. Travailler avec des équipes pluridisciplinaires (IT, produit, métier, sécurité…) afin d’identifier et résoudre les problématiques data. Développer et maintenir des pipelines de données , des modèles analytiques et des outils de reporting. Garantir la qualité, l’intégrité et la sécurité des données sur tout leur cycle de vie. Fournir une expertise technique et des recommandations pour soutenir la prise de décision data-driven. 🧩 Expertise requise 5 ans d’expérience minimum en data engineering, data analytics ou poste similaire. Expérience solide dans la livraison de solutions data dans des environnements dynamiques. Maîtrise des architectures et technologies data modernes : plateformes cloud (AWS, Azure, GCP), frameworks Big Data, data warehousing. Excellentes compétences en Python, SQL, Spark . Maîtrise de la modélisation de données , des processus ETL et des pipelines de transformation. Expertise sur les outils de visualisation et de reporting : Power BI, Tableau . Connaissance des bonnes pratiques de gouvernance, sécurité et conformité des données.
Freelance
CDI
CDD

Offre d'emploi
Architecte calcul/Stockage et plateformes DATA

Publiée le
Architecture
Cloud

12 mois
40k-45k €
400-550 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Missions principales Architecture et trajectoire technologique • Concevoir des architectures de calcul, stockage et plateformes DATA (On-premise, Cloud ou hybrides). • Élaborer la cible d’architecture DATA : catalogage, gouvernance, sécurité, interopérabilité. • Formaliser les patterns d’architecture, standards et bonnes pratiques. 1. Collecte et formalisation des besoins métiers et techniques • Animer des ateliers avec les directions métiers et laboratoires pour recueillir et qualifier les besoins. • Réaliser des cartographies techniques et fonctionnelles. • Identifier les contraintes et les gains attendus. 2. Analyse et ingénierie des systèmes existants • Réaliser du reverse engineering sur les systèmes existants, y compris non gérés par la DTI. • Identifier les redondances, obsolescences et pistes d’optimisation. 3. Proposition et priorisation de projets • Construire un plan d’action priorisé des projets techniques. • Appuyer la priorisation stratégique en lien avec la gouvernance DATA et le SDSI 2030 (qui reste à construire). 4. Pilotage et accompagnement technique des projets • Coordonner les travaux techniques, tests de performance et intégration. • Contribuer directement à la mise en œuvre technique et au transfert RUN. 5. Contribution à la gouvernance DATA • Participer aux instances du Programme DATA et du SDSI. • Contribuer à la définition des standards techniques et à la documentation des services. 4. Missions secondaires • Participation à des projets de plateformes mutualisées (MFT, ETL, forges logicielles, calcul). • Étude et éventuel déploiement de solutions cloud ou hybrides selon arbitrages stratégiques. • Veille technologique sur les infrastructures et technologies data. • Capitalisation documentaire et accompagnement à la montée en compétence des équipes. 5. Compétences requises 5.1 Compétences techniques • Architecture des systèmes de stockage : NAS, SAN, Object Storage, archivage. • Environnements de calcul : clusters Linux/Windows, HPC, Slurm, conteneurisation (Docker, Singularity), GPU, orchestration.Systèmes et virtualisation : VMware, Hyper-V. • Réseaux et sécurité : segmentation, performance, supervision, monitoring. • Plateformes DATA/Analytics : architectures DATA, interopérabilité technique, …. • Outils de transfert et d’intégration : MFT, ETL, pipelines CI/CD (GitLab CI, Jenkins). • Cloud et hybridation : connaissance d’Azure, OVHcloud, Scaleway ou équivalents publics. • Outils de supervision et d’observabilité : Grafana, Prometheus. • Documentation technique : rigueur rédactionnelle, utilisation d’outils tels que PlantUML, Mermaid ou Visio. 5.2 Compétences transverses • Gestion de projet technique : planification, suivi, priorisation et reporting. • Capacité d’analyse et d’arbitrage technique, sens de la décision et de la fiabilité opérationnelle. • Aptitude à dialoguer avec des interlocuteurs variés (chercheurs, ingénieurs, équipes métiers, directeurs, CDO, RSSI). • Autonomie, curiosité, rigueur documentaire et esprit de synthèse. • Sens du service public et respect de la confidentialité scientifique.
Freelance

Mission freelance
Data Engineer Hadoop – Secteur Assurance

Publiée le
Big Data
Hadoop
SQL

12 mois
Paris, France
Télétravail partiel
Contexte de la mission Dans un environnement IT Data du secteur de l’assurance , le client exploite une plateforme Hadoop pour le traitement de données volumineuses issues des systèmes historiques. La mission vise à maintenir, faire évoluer et structurer les flux data existants, tout en assurant leur intégration avec les usages analytiques et cloud. Missions principales Développer et maintenir des traitements de données sur environnement Hadoop Gérer des volumes importants de données métiers assurance Participer à la conception et à l’optimisation des flux data Assurer la fiabilité, la performance et la qualité des traitements Collaborer avec les équipes cloud, BI et Data Science Contribuer aux phases d’analyse technique et de conception des solutions data Stack technique obligatoire Hadoop Écosystème Big Data SQL Environnements data distribués Profil recherché Data Engineer confirmé spécialisé Hadoop Expérience en contexte de forte volumétrie et SI complexe Capacité à faire de la conception de flux , pas uniquement de l’exécution Sensibilité aux enjeux métiers et réglementaires du secteur assurance
Freelance

Mission freelance
Architecte Cloud & On-Premises (anglophone) – Expertise FinOps

Publiée le
Architecture
Azure
Cloud

12 mois
Paris, France
Télétravail partiel
Bonjour, Nous recherchons pour notre client grand compte un Architecte Cloud & On-Premises anglophone , intervenant sur l’optimisation des coûts d’un environnement multi-cloud et d’infrastructures on-premises. Nous étudions – prioritairement – les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité et mobilité Tarif journalier Merci d’indiquer la référence KTR/FIN/4975 dans l’objet de votre message La prestation consiste à optimiser les coûts Cloud et On-Premises dans un environnement multi-cloud global, en produisant des rapports détaillés, en mettant en œuvre la gouvernance, en soutenant les équipes internes et en fournissant des recommandations structurées. . Gouvernance Cloud & On-Premises Contribuer à la définition de la gouvernance pour les environnements Cloud et On-Premises. Participer à la mise en œuvre opérationnelle de cette gouvernance. 2. Production et amélioration des rapports Cloud & On-Premises Produire des rapports pertinents sur la consommation et les coûts Cloud & On-Premises. Améliorer en continu ces rapports pour les rendre exploitables par le management. Fournir des rapports permettant de piloter la conformité, la consommation et les coûts. 3. Collaboration avec des équipes transverses globales Collaborer avec des équipes multifonctionnelles basées dans plusieurs pays. Comprendre leurs besoins et contribuer à l’analyse des données. Établir des partenariats de travail permettant d’atteindre des résultats FinOps tangibles. 4. Support aux équipes Infrastructure & Operations (I&O) Accompagner les équipes I&O dans la définition d’objectifs et de KPI pertinents. Participer à la récupération, structuration et modélisation des données nécessaires au pilotage des coûts. 5. Cartographie des flux de données Cartographier, avec les équipes I&O, les flux de données relatifs aux environnements Cloud et On-Premises. Aider à construire un modèle de données supportant les travaux FinOps. 6. Analyse et prévision des coûts d’hébergement Analyser les coûts d’hébergement Cloud & On-Premises. Élaborer des prévisions (forecast) pour anticiper l'évolution des dépenses. 7. Recommandations d’optimisation Formuler clairement des recommandations d’optimisation des coûts. Accompagner et suivre la mise en œuvre de ces recommandations. 8. Appui à la prise de décision via les données Utiliser des outils et technologies permettant des décisions data-driven. Contribuer à l’amélioration de la capacité analytique et du reporting FinOps. 9. Contribution aux projets et programmes Aider projets et programmes à réaliser des estimations de coûts. Construire et formaliser des modèles de coûts et de financement. Contribuer à l’élaboration de business cases internes.
CDI
Freelance

Offre d'emploi
Data Architect / Data Engineer (H/F)

Publiée le
Cloud

1 an
La Défense, Île-de-France
Télétravail partiel
Nous recherchons un profil technique pour accompagner des projets data stratégiques au sein d’un acteur spécialisé dans la transformation et l’architecture des systèmes d’information. Vos missions Concevoir et faire évoluer des architectures data modernes (cloud, data lake, data warehouse, data mesh… selon les projets). Définir les standards et bonnes pratiques d’ingénierie des données. Concevoir, développer et optimiser des pipelines de données robustes et industrialisés. Participer aux choix technologiques et contribuer à la mise en place d’une gouvernance data efficace. Collaborer avec les équipes projet (data engineers, data analysts, product owners…) pour garantir la qualité et la fiabilité de la donnée. Compétences recherchées Maîtrise d’un ou plusieurs environnements cloud : AWS, Azure ou GCP. Expérience avérée en conception d’architectures data (batch, streaming, event-driven…). Solide pratique des langages et écosystèmes data : Python, SQL, Spark, DBT, Kafka, Airflow… Bonne compréhension des modèles de stockage et de traitement (Delta Lake, BigQuery, Snowflake…). Connaissance des bonnes pratiques de CI/CD, observabilité, sécurité et gouvernance data. Profil 3 à 7 ans d’expérience en data engineering ou en architecture data. Capacité d’analyse, rigueur technique et vision d’ensemble des systèmes de données. Aisance en communication et capacité à travailler en équipe sur des projets multidisciplinaires. Ce que nous offrons Participation à des projets à forte valeur ajoutée. Environnement orienté expertise, innovation et montée en compétences. Culture technique stimulante et possibilités d’évolution.
Freelance

Mission freelance
Data Engineer/ Expert GCP

Publiée le
BigQuery
Cloud
Data science

12 mois
530 €
Toulouse, Occitanie
Mon Client recherche un Data Engineer expérimenté (min. 5 ans en Cloud Engineering GCP) pour intervenir sur un nouveau projet GCP natif dans le domaine Trade-Corporate Sales , à partir du 5 janvier 2026 pour une durée initiale d’un an. La mission, basée exclusivement sur site à Toulouse , vise à concevoir et construire la première itération de la solution cloud. L’expert interviendra sur la mise en place des composants et services GCP , le développement de pipelines de données (Cloud Storage, Dataform, BigQuery) ainsi que l’ intégration d’un moteur de machine learning conçu par les data scientists (probablement via Vertex AI). Il contribuera également à la création d’un tableau de restitution sous Power BI et à la coordination avec une équipe fullstack . Au-delà de la réalisation technique, la mission inclut un fort volet de transfert de compétences pour autonomiser l’équipe interne. Le profil attendu doit allier expertise technique GCP , capacité de conception et de documentation fonctionnelle , autonomie , engagement et aisance relationnelle en environnement collaboratif anglophone.
Freelance

Mission freelance
Chef de Projet Data & BI (H/F)

Publiée le
BI
Big Data
SQL

1 an
400-580 €
Arcueil, Île-de-France
Télétravail partiel
Si la data et la BI sont pour toi une passion plus qu’une compétence, rejoins notre univers technique qui t’attend de pied ferme avec ce poste de Chef de Projet Data & Expert BI ! 🚀 Ton challenge si tu l’acceptes : Piloter des projets Data / BI de bout en bout, du recueil du besoin métier jusqu’à la mise en production Animer des ateliers avec les métiers (PO / ITBP) et challenger les besoins fonctionnels Concevoir et faire évoluer les architectures Data (on-prem / Azure) Modéliser les entrepôts de données (Data Warehouse / Datamart) Développer et superviser les flux ETL (SSIS), les procédures T-SQL et les modèles SSAS Tabular Créer et optimiser des rapports Power BI (performance, ergonomie, gouvernance) Garantir la qualité, la fiabilité et la performance des données en production
Freelance

Mission freelance
Expert Azure Data Factory F/H - 3 mois

Publiée le
Azure Data Factory
ETL (Extract-transform-load)

3 mois
500-600 €
Saint-Denis, Île-de-France
Notre client dans le secteur Assurance recherche un Expert Technique Azure Data Factory H/F Descriptif de la mission: Offre de mission – Expert Technique Azure Data Factory / Data Engineering – Secteur Assurance Contexte de la mission Au sein d’un grand acteur du secteur de l’assurance, l’Expert Technique Azure Data Factory (ADF) intervient dans le cadre de la modernisation des plateformes data et de la migration vers un écosystème cloud Microsoft Azure. Il contribue à la conception, l’industrialisation et l’optimisation des flux de données nécessaires aux usages métier : tarification, souscription, actuariat, gestion des sinistres, reporting réglementaire et analyse de risques. Missions principales 1. Architecture & conception des flux data - Concevoir et optimiser des pipelines Azure Data Factory adaptés aux besoins métier. - Définir l’architecture cible des flux d’intégration et de transformation dans un environnement Assurance. - Participer à la mise en place d’une architecture Data Lakehouse (Azure Data Lake Storage, Delta Lake, Synapse). - Garantir la résilience, la scalabilité et la conformité des traitements. 2. Développement & industrialisation - Développer des pipelines ADF (ingestion, orchestration, transformation). - Implémenter des Data Flows, du mapping et des transformations complexes. - Automatiser les déploiements CI/CD avec Azure DevOps. - Intégrer les solutions avec l’écosystème data : Azure Databricks, Synapse Analytics, SQL, APIs, etc. 3. Optimisation & performance - Optimiser les traitements pour supporter des volumes importants (données contractuelles, sinistres, historiques). - Mettre en place des mécanismes d’alerting, monitoring, retry et gestion d’erreurs. - Conduire des analyses de performance et formuler des recommandations d’améliorations. 4. Gouvernance & sécurité - Contribuer à la mise en place des bonnes pratiques de sécurité et de conformité RGPD. - Gérer les accès via Azure AD, Key Vault, Private Endpoints. - Documenter les flux, les métadonnées et les règles de gestion. 5. Support technique & expertise - Conseiller les équipes Data, AMOA et Métiers Assurance sur les meilleures solutions cloud. - Assurer un rôle de référent sur Azure Data Factory et les briques d’intégration data. - Accompagner les équipes dans leur montée en compétence. Profil / compétences recherchées Compétences techniques obligatoires - Maîtrise approfondie d’Azure Data Factory (pipelines, triggers, integration runtime, Data Flows). - Très bonne connaissance d’Azure Data Lake Storage (ADLS Gen2). - Expertise en Azure SQL, Synapse Analytics, Azure Functions. - Pratique des environnements CI/CD Azure DevOps. - Maîtrise du SQL avancé et de l’optimisation de requêtes. - Connaissance des enjeux du secteur de l’assurance : données contractuelles, sinistres, référentiels, réglementaire. Compétences nice to have - Notions de Databricks / PySpark. - Connaissance des modèles Data Vault / Lakehouse. - Expérience avec Power BI ou des outils de visualisation. - Compréhension des normes Solvabilité II, IFRS 17, des risques et de l’actuariat. Compétences / Qualités indispensables: Maîtrise approfondie d’Azure Data Factory Anglais courant
Offre premium
Freelance

Mission freelance
Référent Data

Publiée le
Architecture
Data governance

3 mois
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
1. Contexte Le Système d’Information regroupe près de 70 applications couvrant la recherche d’itinéraires, l’information voyageurs, la vente (digitale & physique), la billettique, les contrôles, le reporting et les interconnexions avec les partenaires de transport. Ce système est exploité dans un environnement complexe multi-acteurs avec des obligations contractuelles fortes vis-à-vis des instances publics. La gouvernance des données devient un enjeu clé pour garantir cohérence, sécurité, qualité de service et conformité réglementaire. 2. Rôle du Référent Data Ce poste opérationnel vise à structurer et piloter la stratégie Data , en mode RUN, en complément des développements BUILD. Il s’agit de définir les règles d’utilisation des données, d’assurer leur conformité, leur disponibilité, leur cohérence fonctionnelle, et de produire l’ensemble des reportings exigés. 3. Missions principales A. Gouvernance & Stratégie Data Définir une démarche Data Driven pour le RUN. Cadrer les besoins Data : brutes, personnelles, reporting, listings opérationnels. Être l’interlocuteur privilégié de la Région pour l’expression et la priorisation des besoins. Proposer les évolutions contractuelles nécessaires. Définir les guidelines Data : consommation, protection, nommage, droits d’accès. Évaluer l’évolution de l’architecture Data (MDM, outils, flux, organisation). B. Analyse et cadrage Réaliser le cadrage global : périmètre, responsabilités, planning, livrables. Lister et qualifier les cas d’usage Data. Construire la cartographie des données : thèmes, typologies métiers, systèmes, structures détaillées. Définir les processus de gestion de la donnée : cycle de vie, responsabilités, sécurité. Recenser les exigences légales et contractuelles (RGPD, archivage, purge, sécurité). C. Pilotage & Production Produire les documents de gouvernance Data : dictionnaires, cartographies, politiques. Établir les reportings contractuels et non contractuels, dont : Financier : prévisionnel, réalisé, écarts, dépenses par phase. Recettes : ventes par canal, recettes par gamme, reversements, régularisations. Maintenance : interventions, disponibilité, stock pièces, préventif/curatif. SI : disponibilité plateformes, temps de réponse, SLA, MTBF, intégration des données. Usagers : tickets CRC, satisfaction, fréquentation, usage titres. Distribution : CA & commissions par canal (Région et partenaires). D. Coordination Faire le lien entre : métiers, DSI, architectes SIBR, sous-traitants, et instances publics. Conduire et animer les ateliers Data. Garantir la cohérence et la fiabilité des flux data inter-outils et inter-équipes. E. Études de faisabilité pour nouveaux besoins Aider la Région à exprimer un besoin (et non une solution). Étudier impacts contractuels, sécurité, architecture, outillage et coûts. Proposer des arbitrages et une priorisation. 4. Compétences requises Techniques Gouvernance data (MDM, métadonnées, data lineage, qualité, sécurité). Connaissance des architectures data modernes (Cloud, API, flux). Capacité à structurer un dictionnaire de données et une cartographie. Compréhension des enjeux réglementaires (RGPD). Expérience des environnements complexes multi-SI. Fonctionnelles & personnelles Forte capacité de synthèse, communication et pédagogie. Orientation opérationnelle (« doer »). Capacité à anticiper les risques et sécuriser les engagements. Aisance dans les échanges institutionnels et le pilotage multi-parties. 5. Livrables attendus Note de cadrage Data Cartographie des sources et flux Dictionnaire des données Politique de cycle de vie, archivage et sécurité Plan de contrôle qualité Reporting financier, opérationnel, SI, marketing, maintenance, distribution Tableaux de bord contractuels Études de faisabilité détaillées pour les nouveaux besoins 6. Profil recherché +5 ans d’expérience en gouvernance Data ou architecture de données. Bac+5 en informatique ou équivalent. Expérience dans un contexte de création ou transformation d’un SI. Profil pragmatique, opérationnel et autonome. 7. Conditions de mission Lieu : Paris ou Marseille Déplacements ponctuels sur sites Durée : 6 à 12 mois minimum Temps plein
Freelance
CDI
CDD

Offre d'emploi
Expert Kubernetes / Openshift – Senior (H/F)

Publiée le
Ansible
Docker
Kubernetes

1 an
Île-de-France, France
Objectif global : Administrer et maintenir les plateformes de conteneurisation (Docker, Kubernetes, Openshift), en assurant la performance, la sécurité et l’automatisation des environnements. Description détaillée de la mission : La mission se déroule au sein de l'équipe Infrastructure CaaS. L’objectif est la prise en charge des plateformes d’orchestration de conteneurs pour les projets Cloud et les initiatives de transformation IT. L’équipe travaille en mode Agile, favorisant l’automatisation et l’amélioration continue des services. Tâches principales : Déployer, configurer et maintenir les plateformes Docker, Kubernetes et Openshift pour assurer l’isolation et la performance des applications. Rédiger et maintenir les playbooks Ansible pour automatiser déploiements et configurations. Collaborer avec les équipes ADM, APS et les partenaires métiers pour tous les sujets liés aux conteneurs. Mettre en place les politiques de sécurité, gérer les vulnérabilités et contrôler l’accès aux conteneurs selon les normes en vigueur. Assurer la maintenance préventive et curative des systèmes conteneurisés, suivi des incidents et disponibilité des services. Suivre les avancées technologiques en matière de conteneurs, stockage et sécurité pour proposer des solutions innovantes. Respecter la gouvernance CIB et ITO et coordonner avec les partenaires mondiaux pour garantir l’alignement sur l’architecture et les principes IT. Compétences techniques : Docker – Expert Kubernetes – Confirmé / Expert Openshift – Confirmé / Expert Linux / Systèmes – Confirmé Automatisation (Ansible, scripts) – Confirmé Sécurité des conteneurs – Confirmé Compétences linguistiques : Anglais professionnel (Impératif)
Freelance

Mission freelance
développeur Cloud & IA

Publiée le
Azure
Azure Data Factory
Azure DevOps Services

6 mois
Les Ulis, Île-de-France
Télétravail partiel
Profil recherché : Senior disponible en début d’année, avec une charge estimée autour de 3/5 lors des trois premiers mois, sans exigence immédiate de plein temps. Spécialisation : Développeur senior spécialisé en IA Générative (Gen AI), notamment sur la stack GEn AI. Responsabilités Clés Développement Expert & Maintien : Créer des agents intelligents autonomes utilisant l’approche Agentic AI, capables d’utiliser des outils externes ou de collaborer avec d’autres agents via des API, MCP ou autres services. Développer des applications pour la consommation des agents et algorithmes, avec des interfaces spécifiques pour les utilisateurs finaux. Mettre en place des pipelines robustes pour alimenter les LLM/Agents avec Azure, Snowflake et Databricks (RAG, Fine-Tuning). Assurer le support en production, la supervision des modèles/agents et la résolution des problèmes techniques. Compétences clés IA générative (Gen AI) : Bonne maîtrise des modèles génératifs (GPT, diffusion, etc.), capacité à exploiter des LLM via API ou fine-tuning pour la génération de texte, code ou images, tout en comprenant leurs limitations et biais. Architecture et orchestration : Aptitude à architecturer des solutions combinant plusieurs composants d’IA et Cloud, gestion de l’orchestration d’agents, partage d’état via MCP, et enjeux de performance et coût pour des systèmes multi-agents. Architecture de solution & POC : Concevoir des POCs pour les usages en Gen AI et systèmes agentiques, en explorant et validant des architectures. Prendre des responsabilités architecturales en validant les choix techniques (stack d’agents, orchestration, modèles LLM, cloud Azure) pour assurer scalabilité, sécurité et performance. Conseiller sur l’optimisation des services Azure pour l’IA Générative, en termes de coût, performance et résilience.
Freelance

Mission freelance
Cloud Engineer Data (GCP) – Secteur Assurance

Publiée le
Architecture
BigQuery
Cloud

1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans le cadre du renforcement de sa plateforme data cloud, un acteur majeur du secteur de l’assurance recherche un Cloud Engineer orienté data . La mission consiste à accompagner la structuration, la fiabilisation et l’exploitation des environnements data sur GCP , en support des équipes IT Data. Missions principales Concevoir et maintenir les environnements cloud data sur GCP Accompagner les équipes Data Engineer dans l’exploitation des plateformes data Participer à la conception des architectures cloud data Garantir la disponibilité, la performance et la sécurité des environnements Assurer le lien entre les équipes infrastructure, cloud et data Contribuer à l’industrialisation des plateformes data Stack technique obligatoire Google Cloud Platform (GCP) Environnements cloud data Services data GCP (dont BigQuery) Connaissance des environnements Hadoop appréciée Profil recherché Cloud Engineer confirmé orienté data Bonne compréhension des architectures data cloud Capacité à travailler avec des équipes data techniques Profil structurant, orienté conception et exploitation
CDD
CDI
Freelance

Offre d'emploi
Project Manager Digital – Communication

Publiée le
Microsoft Copilot Studio
Azure
Workplace

9 mois
40k-52k €
400-800 €
Le Havre, Normandie
Télétravail partiel
Project Manager Digital – Communication Interne & Digital Workplace 1. Contexte Dans le cadre d’un programme de transformation digitale à l’échelle d’un grand groupe international , le/la Project Manager Digital interviendra sur des projets stratégiques liés à la communication interne et à la digital workplace . La mission couvre notamment : Le pilotage et l’optimisation des outils digitaux de communication interne (réseau social d’entreprise, outils événementiels internes, plateformes collaboratives). La mise en place et l’évolution de la digital workplace du groupe , incluant : migrations de tenants Microsoft pour de nouvelles entités, optimisation de l’usage pour les entités existantes, intégration de solutions d’IA générative (Copilot), développement et déploiement d’agents métiers de niveau L2/L3. 2. Objectifs Communication interne Déployer et optimiser les outils digitaux afin de renforcer la cohésion interne, la fluidité des échanges et l’efficacité opérationnelle. Digital Workplace Piloter les migrations et optimisations des environnements Microsoft 365 pour les filiales. Pour les entités les plus matures (activités industrielles, logistiques, services) : piloter le déploiement et l’adoption de Copilot, optimiser l’usage des nouvelles fonctionnalités, intégrer et gouverner les agents métiers (L2 / L3). Accompagnement au changement Organiser la formation et le support utilisateurs. Faciliter l’adoption des nouveaux outils et processus. Dans ce cadre, le/la Project Manager supervisera une équipe d’environ 12 consultants externes , répartis sur les différents périmètres fonctionnels. Il/elle devra garantir : une compréhension fine des besoins métiers , la traduction de ces besoins en solutions concrètes et adaptées , l’alignement avec les processus de la DSI, la prise en compte des contraintes cybersécurité, architecture, opérations et infrastructures . L’objectif est d’assurer une intégration fluide, sécurisée et à forte valeur ajoutée , dans le respect des standards techniques et de sécurité du groupe.
Freelance
CDI

Offre d'emploi
INGÉNIEUR(E) DEVOPS -INFRASTRUCTURE AS CODE (IaC)

Publiée le
Azure Kubernetes Service (AKS)
F5
ITIL

3 mois
40k-45k €
400-550 €
Le Havre, Normandie
Télétravail partiel
INGÉNIEUR(E) DEVOPS -INFRASTRUCTURE AS CODE (IaC) ype de mission : Régie Durée : 3 mois (renouvelable) Démarrage souhaité : Immédiat Localisation : Présentiel 3 j/semaine minimum à prévoir sur site client au Havre Contexte : Éditeur de logiciels, environnement cloud hybride Azure/on premisesCONTEXTE DE LA MISSIONDans le cadre de la consolidation de son infrastructure cloud hybride Azure et de sa transformation vers une architecture microservices, notre client recherche un Ingénieur DevOps / IaC spécialisé en automatisation Terraform/Ansible sur environnements Azure pour reprendre, rationaliser et industrialiser l'existant.L'environnement technique repose sur une infrastructure hybride Azure/on premises à dominante Microsoft et Linux (Red Hat, Debian), avec une trajectoire d'évolution vers des architectures conteneurisées sur des distributions Kubernetes cible à statuer (RKE2, K3s, OpenShift). MISSIONS PRINCIPALES1. Reprise et rationalisation IaC (prioritaire) • Auditer les scripts Terraform et Ansible existants sur environnements Azure/on prem, identifier les dettes techniques et risques • Refactoriser en modules Terraform Azure réutilisables (VNet, NSG, VM, AKS, ACR, Key Vault, etc.) et rôles Ansible avec conventions de nommage/versioning • Identifier et automatiser les tâches récurrentes manuelles/semi-annuelles via Azure DevOps Pipelines ou GitHub Actions • Documenter l'ensemble (guides d'usage, runbooks d'exploitation)2. Automatisation cycle de vie des certificats SSL/TLS• Concevoir et mettre en œuvre des pipelines de discovery, renouvellement et déploiement automatisés intégrant Azure Key Vault • Intégrer avec le PKI existant ou ACME le cas échéantImplémenter mécanismes de validation et rollback• Coordination appréciée avec load balancers F5 (LTM/WAF) et pare feu Check Point3. Contribution à la transformation – architecture microservices• Définir et appliquer les bonnes pratiques IaC/DevOps/GitOps sur Azure (stratégies de branches, PR, promotions multi environnements via Azure DevOps ou GitHub)• Mettre en place et administrer un sandbox Kubernetes agnostique (RKE2/K3s/OpenShift) avec intégration Azure (Azure Arc si pertinent)• Outiller l'évaluation des stacks (ingress, CNI/CSI, Azure Monitor, sécurité)• Produire matrices de critères, recommandations et runbooks MCO (Maintien en Condition Opérationnelle) / MCS (Maintien en Condition de Sécurité)COMPÉTENCES TECHNIQUES REQUISESObligatoires• Microsoft Azure : maîtrise des services IaaS/PaaS (VNet, NSG, VM, Storage, Application Gateway/WAF) et expérience fournie en admin Azure• Azure DevOps ou GitHub Actions : pipelines CI/CD, intégration Terraform, gestion des secrets via Key Vault, policy as code• Systèmes Linux (Red Hat/Debian) et Windows Server, virtualisation (proxmox, hyper-v, nutanix) /bare metal• Maîtrise de développement scripts Terraform, Ansible, bash/sh Appréciées• Kubernetes: automatisation distributions agnostiques (RKE2/K3s/OpenShift), Helm/Kustomize, ingress, RBAC, ARGO/CD• Load balancers F5 (LTM/WAF) et pare feu Check Point• Connaissances développement Python• Certification ITIL et Kubernetes (CKA) PROFIL RECHERCHÉIngénieur(e) DevOps / IaC (5–10 ans d'expérience) orienté automatisation sur cloud-hybrid, capable d'auditer et de rationaliser des patrimoines IaC hétérogènes, alliant vision d'architecture cloud, rigueur documentaire et capacité à élever le niveau des équipes internes Windows/Linux. --
Freelance
CDI
CDD

Offre d'emploi
Expert Kubernetes / Anthos Projet Cloud & Edge Computing-ile de France (H/F)

Publiée le
Agile Scrum
Ansible
Cloud

1 an
Île-de-France, France
Contexte du besoin Dans le cadre d’un projet stratégique de mise en place d’un Cloud hybride basé sur Anthos / Kubernetes , nous recherchons une expertise senior afin d’accompagner le déploiement, l’industrialisation et le support de la plateforme sur des infrastructures Edge. Mission L’expert interviendra au sein d’une équipe Cloud en méthodologie Agile, et sera responsable de : La mise en œuvre d’Anthos / Kubernetes sur des infrastructures Edge Computing hybrides (cloud public + infrastructures locales). Le déploiement complet des environnements , du développement jusqu’à la production. La mise en place de l’automatisation via Ansible et Terraform . La rédaction des documentations techniques et la montée en compétences des équipes infrastructure. Le support opérationnel de la solution en production. L’ accompagnement des équipes projets sur les bonnes pratiques Kubernetes / Anthos. Livrables Environnements déployés (dev → prod) Services automatisés et monitorés Documentation technique complète Compétences & Expertise recherchées +5 ans d’expérience confirmée en Kubernetes , Anthos , et environnements Cloud / DevOps . Très bonne maîtrise de Google Anthos . Excellente connaissance de Terraform et Ansible . Bon niveau sur les outils CI/CD ( GitLab CI ). Compétences solides en virtualisation , Linux et scripting . Connaissance des méthodes Agile (Scrum) . Anglais professionnel dans un contexte international.
575 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous