Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 103 résultats.
CDI

Offre d'emploi
Ingénieur DevOps Backend / Cloud Azure

NEWAY SOLUTION DIGITALE
Publiée le
Ansible
Azure DevOps
CI/CD

55k-80k €
Île-de-France, France
Description du poste Dans le cadre du développement et de l’évolution d’une plateforme d’ingénierie SI à grande échelle, notre societe recherche un Ingénieur DevOps Backend / Cloud Azure/AWS pour intervenir sur la conception, le développement, le déploiement et l’exploitation de solutions techniques utilisées par de nombreuses équipes de développement. Le poste s’inscrit dans un environnement agile, orienté industrialisation des processus, automatisation et gestion d’environnements cloud à fort volume. Missions principales • Concevoir, développer et maintenir des composants logiciels backend • Participer à la standardisation des outils de développement, de déploiement et de mise en production • Développer et maintenir des APIs et services backend • Mettre en œuvre et améliorer les pipelines CI/CD • Gérer et exploiter l’infrastructure sous-jacente aux applications • Assurer le support technique (incidents, bugs, évolutions, changements) • Travailler en étroite collaboration avec des équipes techniques en mode agile • Contribuer à l’optimisation des environnements cloud et à la gestion de gros volumes
Freelance

Mission freelance
Data Engineer AWS / GenAI

Cherry Pick
Publiée le
Amazon S3
Apache Airflow
Apache Spark

12 mois
450-550 €
Paris, France
Dans le cadre du plan de transformation DATA de notre Client, notre client développe des applications et plateformes DATA pour rendre nos métiers (pilotage, marketing, commerce, etc.) autonomes dans l’analyse de leurs données et KPI. Les infrastructures et projets incluent : AWS, GitLab, Terraform, DBT, Snowflake, Python, Scala, Spark, PowerBI, AI/GenAI Architectures Big Data sophistiquées pour ingérer plus de 100 par jour (Datalake, Event-Driven, Streaming, etc.) Exemples de projets : Chatbot AI Socle vidéo, navigation et calcul des audiences Recommandation de programmes via IA Feature Store et modernisation des flux financiers Plateformes CRM et partage de données partenaires Kubernetes et applications de data self-service Missions En tant que Data Engineer , vous serez en charge de : Concevoir, développer et maintenir des pipelines de données scalables et performants (ingestion, traitement et stockage de données massives). Développer des architectures Big Data sur AWS (S3, EMR, Lambda, Kinesis, Batch…), Snowflake et Spark. Développer en Scala et Python pour le traitement massif des données. Automatiser les workflows et orchestrer les pipelines avec Airflow et DBT . Concevoir et exposer des APIs customer-facing performantes. Optimiser les performances et garantir la scalabilité pour gérer un volume important d’utilisateurs. Collaborer avec les équipes Data Science, Produit et DevOps pour une intégration fluide.
Freelance

Mission freelance
INGENIEUR DATA BI EXPERIMENTE

PROPULSE IT
Publiée le
BI

24 mois
250-500 €
Paris, France
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Freelance

Mission freelance
Développeur Azure Paas (on .Net core)- 3 ans - ASAP

Montreal Associates
Publiée le
.NET CORE
Azure DevOps
Azure DevOps Services

10 mois
500-600 €
Saint-Denis, Île-de-France
Voici une annonce courte, claire et sélective , dans le style habituel LinkedIn 👇 Développeur Back-end Senior Azure (.NET Core) Mon client international recherche un expert Azure PaaS confirmé pour faire évoluer et fiabiliser une plateforme cloud stratégique orientée APIs & Data . Objectif => rationaliser l’architecture, optimiser la performance et garantir la robustesse des services en production . 🎯 Responsabilités clés Évolution & maintenance de l’architecture Azure (PaaS / APIs / monitoring) Développement .NET Core de services backend CI/CD Azure DevOps & déploiements continus Modélisation data avec l’équipe Data Qualité, sécurité, performance & documentation (anglais) 🛠️ Exigences fortes (profils très expérimentés uniquement) 5+ ans Azure PaaS : App Services, Functions, LogicApps, ServiceBus, KeyVault, SQL/Cosmos, Storage, Azure AD Excellente maîtrise .NET Core Bonne culture Cloud architecture, observabilité, coûts & fiabilité Anglais fluent obligatoire ➕ Bonus : DevOps, Apigee, EventHub, Angular, New Relic #Freelance #Azure #DotNet #Backend #AzurePaaS #DevOps
Freelance

Mission freelance
Data Engineer IA & API (GCP & AWS)

Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
Docker

6 mois
460-580 €
Courbevoie, Île-de-France
Nous recherchons, pour le compte de notre client dans le secteur de l’énergie , un(e) Data Engineer Cloud afin de renforcer ses équipes data et accompagner des projets stratégiques à forte valeur ajoutée. Compétences clés indispensables Excellente maîtrise de Python Solide expérience sur AWS , notamment Redshift Mise en place et orchestration de pipelines data avec Apache Airflow Infrastructure as Code avec Terraform Développement d’API avec FastAPI Conteneurisation avec Docker Très bonne maîtrise du SQL et de la modélisation de données Atouts majeurs Expérience sur Google Cloud Platform (GCP) Connaissances ou intérêt fort pour l’ IA Agentic (agents autonomes, workflows intelligents, LLMs) Sensibilité DataOps / MLOps Expérience sur des architectures data modernes Profil attendu Formation Bac+5 (école d’ingénieur, université ou équivalent) 3 à 6 ans d’expérience en Data Engineering (adaptable) Autonome, rigoureux(se) et orienté(e) solutions Bon relationnel et esprit d’équipe Curiosité technologique et goût pour l’innovation 📍 Localisation : Courbevoie
Freelance

Mission freelance
Proxy PO build - Snowflake + Power BI

FF
Publiée le
Azure Data Factory
Microsoft Power BI
Snowflake

1 an
Paris, France
Bonjour à tous, Mission longue 1 an ou + à Paris. Télétravail : 2 jours par semaine Date de démarrage : courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour accélérer la phase de BUILD de notre plateforme data. Cette mission vise à répondre à un besoin critique : face à un volume important de demandes utilisateurs et une incapacité à tout traiter faute de bande passante, ce PPO sera en charge de structurer et accélérer la livraison de nouvelles fonctionnalités, KPI et spécifications fonctionnelles. Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de faire le lien entre les utilisateurs métiers et les équipes de développement, en fournissant des spécifications fonctionnelles claires et exploitables. Objectif principal Accélérer le BUILD produit data : spécifications, nouveaux KPI, structuration des demandes utilisateurs. Le PPO BUILD devra gérer un fort volume d'échanges avec les utilisateurs, recueillir et formaliser les besoins métiers, définir et cadrer de nouveaux KPI, et travailler en étroite collaboration avec le Product Owner Data et les équipes de développement. Responsabilités clésGestion du backlog et cérémonies Agile • Participer aux cérémonies Agile et supporter le PO dans la gestion d'équipe • Gérer et opérer le backlog BUILD • Créer et maintenir les tickets Jira pour les équipes de développement avec des informations complètes : spécifications d'intégration de données, sources de données requises pour la construction des KPI, règles de transformation et critères d'acceptation Recueil et formalisation des besoins • Recueillir les besoins métiers auprès des utilisateurs clés • Mener des interviews utilisateurs à haut volume pour comprendre et cadrer les demandes • Formaliser les besoins sous forme de spécifications fonctionnelles claires et exploitables Analyse et construction des KPI • Analyser les sources de données nécessaires pour construire les KPI • Définir et cadrer de nouveaux KPI dans la plateforme data • Effectuer l'analyse technique et optimiser la logique de calcul des KPI • Concevoir des modèles de données dans Snowflake et Power BI Tests et validation • Effectuer des tests UAT (User Acceptance Testing) avec les parties prenantes dans Snowflake et Power BI • Tester et valider les fonctionnalités et améliorations livrées Suivi et optimisation • Surveiller et examiner l'orchestration et la planification des sources • Construire et affiner les modèles de données Power BI • Contribuer à la documentation fonctionnelle Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (KPI, dashboards) • SQL : connaissance fonctionnelle pour effectuer l'analyse de données, validation et compréhension des données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Spécifications fonctionnelles : capacité à rédiger des spécifications fonctionnelles claires et exploitables • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Excellentes capacités de communication avec les utilisateurs et les équipes de développement • Aisance dans les échanges avec des utilisateurs exigeants et capacité de facilitation et négociation avec les parties prenantes • Esprit de synthèse et structuration pour transformer des besoins complexes en spécifications claires • Autonomie forte et curiosité – capacité à apprendre rapidement le contexte métier • Décisif et axé sur les résultats • Esprit collaboratif Langues • Anglais : courant / bilingue obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à confirmé) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Assurer une approche centrée utilisateur dans toutes les décisions produit • Construire et maintenir la roadmap produit en collaboration avec le Product Owner Data • Définir des spécifications fonctionnelles claires et complètes • Planifier, piloter et prioriser les développements en utilisant la méthodologie Agile • Tester et valider les fonctionnalités et améliorations livrées • Fournir formation, support et communication aux utilisateurs Compétences clés demandées • AGILE • Snowflake (fonctionnel) • Microsoft Power BI : Niveau Expert Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
CDI

Offre d'emploi
Chef de projet poste de travail informatique H/F

GROUPE ARTEMYS
Publiée le
Azure
Gestion de projet
Office 365

42k-50k €
Caen, Normandie
Chef de projet poste de travail informatique H/F (CDI / Freelance) Localisation : Caen Mode de travail : Présentiel Date de démarrage : Dès que possible Durée de mission : 6 mois renouvelable Fourchette de salaire : Entre 42-50k euros annuel brut (selon expertise) Votre mission (si vous l’acceptez) : Nous recrutons dès à présent un Chef de projet Workplace H/F. Dans cette nouvelle étape de votre carrière, nous vous proposons d’intervenir sur de belles missions auprès d’un client grand compte à Caen auprès duquel vous aurez la possibilité de : • Planifier et structurer les projets (planning, jalons, livrables), • Coordonner les équipes métiers, techniques et les parties prenantes, • Piloter les déploiements de solutions collaboratives (Microsoft 365, Teams, OneDrive), • Préparer et conduire les opérations de migration vers des environnements Cloud, • Suivre l’avancement, les risques et la qualité des livrables, • Organiser les comités projet et assurer le reporting, • Accompagner les utilisateurs (communication, formation, support au changement). Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys !
Freelance

Mission freelance
Data Platform Engineer (Hadoop CDP/HDP, Spark, Airflow, Kubernetes) - IDF

ISUPPLIER
Publiée le
Apache
Hortonworks Data Platform (HDP)
Kubernetes

1 an
450-650 €
Île-de-France, France
Objectifs de la mission Le bénéficiaire souhaite une prestation d’accompagnement pour assurer le MCO des Infrastructures HDP et CDP, administration des Clusters, Prestations demandées Les missions sont: Les consultants retenus auront pour mission : • Administration et optimisation de clusters HDP/CDP • Installation, configuration et maintenance des clusters. • Gestion des mises à jour et des patchs de sécurité. • Surveillance des performances et optimisation des ressources. • gestion/administration de clusters Kubernetes • Automatisation des déploiements avec Operators…, etc. • Sécurisation et monitoring des environnements conteneurisés. • Orchestration des workflows avec Apache Airflow : • Développement et optimisation des DAGs pour la gestion des pipelines de données. • Gestion des dépendances et optimisation des temps d’exécution. • Intégration avec les autres outils de l’écosystème. • Traitement et analyse des données avec Apache Spark : • Développement et optimisation des jobs Spark (batch et streaming). • Gestion des performances et tuning des jobs. • Intégration avec les systèmes de stockage distribués. • Optimisation des requêtes et accès aux données avec Starburst : • Configuration et administration de Starburst. • Optimisation des requêtes SQL distribuées. • Sécurisation et gestion des accès aux différentes sources de données. Français/Anglais
Freelance

Mission freelance
Expert Réseau

Codezys
Publiée le
Active Directory
AlgoSec
Azure

12 mois
Courbevoie, Île-de-France
Contexte de la mission Equans France recherche un expert confirmé en réseau et sécurité pour renforcer sa Direction des Systèmes d'Information (DSI) dans le cadre des activités de la ligne de service (SLS) infrastructures. Les SLS représentent les axes de conception et d'exploitation des services centraux d'Equans, utilisés par l'ensemble des Business Units (BU). La BU France est responsable de la ligne de services Infrastructures, couvrant à la fois les fournisseurs cloud AWS et Azure, ainsi que les services réseaux et sécurité centraux de l'entreprise. Ces services incluent notamment : Internet Access Private Access Firewalling SD-WAN VPN IP Address Management (IPAM) Registrar LAN et Wi-Fi li>Network Access Control (NAC) Objectifs et livrables Fournir une expertise approfondie dans les domaines du réseau, notamment SD-WAN, NAC et LAN/WLAN. Participer activement aux projets de déploiement réseau, en particulier pour les solutions SD-WAN, NAC et LAN/WLAN. Proposer des améliorations continues sur les services réseau afin de les aligner avec la stratégie globale du groupe. Servir de point d’escalade pour la gestion des incidents critiques et des événements majeurs liés au réseau. Réaliser des tests en environnement de maquette pour valider les solutions et configurations techniques, budgétaires et opérationnelles. Élaborer, maintenir et mettre à jour la documentation technique relative aux infrastructures réseau. Contribuer à la transition vers une exploitation opérée par une équipe en Inde, assurant ainsi la continuité et la robustesse du service.
Freelance

Mission freelance
Développeur Devops Azure - Paris

Codezys
Publiée le
Azure
Azure DevOps Services
Docker

6 mois
Paris, France
Nous recherchons un Développeur DevOps Azure expérimenté pour rejoindre notre équipe de développement. Missions principales : Concevoir et mettre en œuvre des pipelines CI/CD sur Azure DevOps. Gérer et automatiser l'infrastructure avec des outils tels que Terraform et Azure Resource Manager. Mettre en place le déploiements sur les différents environnements. Surveiller et optimiser les performances des applications en production. Collaborer avec les équipes de développement pour améliorer les processus de livraison. Participer à l'amélioration continue des pratiques DevOps au sein de l'équipe. Partager les connaissances avec les autres membres de l'équipe. Compétences requises : Expérience solide avec Azure DevOps et les outils CI/CD. Connaissance approfondie des conteneurs (Docker, Kubernetes). Compétences en scripting (PowerShell, Bash) et expérience avec des langages de programmation (Java, Javascript, Python, C++). Connaissance des outils d'infrastructure as code (Terraform). Compréhension des pratiques de sécurité et de conformité dans le cloud. Excellentes compétences en communication et en travail d'équipe. Qualifications : Diplôme en informatique, en ingénierie ou dans un domaine connexe. Expérience dans un environnement de développement web Java et backend. Certification Azure AZ-900, AZ-104, AZ-204, AZ-400, AZ-500 Objectifs et livrables - Connaissance approfondie d'Azure - CI/CD (Intégration Continue / Déploiement Continu) - Infrastructure as Code (IaC) - Conteneurisation et orchestration - Scripting et automatisation - Gestion de la configuration et surveillance - Sécurité dans le Cloud
Freelance

Mission freelance
243100/Architecte Cloud Azure certifié

WorldWide People
Publiée le
Architecture
Gouvernance

6 mois
Nanterre, Île-de-France
Architecte Cloud Azure certifié Nature de la prestation : Conception, l’industrialisation, l’exploitation et l’amélioration continue des socles Cloud de Confiance Bleu (Azure souverain) et S3NS (Google Cloud souverain). Missions principales Architecture & Gouvernance : Concevoir, cadrer et faire évoluer l’architecture des socles (Landing Zones, réseau, IAM, sécurité). Build & Industrialisation : Mettre en œuvre les socles via Infrastructure as Code (Terraform), concevoir et faire évoluer les pipelines CI/CD et workflows GitOps. Communs numériques : Développer, maintenir et faire évoluer les modules IaC, pipelines, librairies et socles applicatifs. Exploitation & Fiabilité : Administrer et exploiter les environnements, automatiser les opérations récurrentes, gérer IAM et sécurité opérationnelle. Environnement technique Clouds : Bleu (Azure souverain), S3NS (Google Cloud souverain). Outils : Terraform, Git, CI/CD, GitOps, Policy as Code, FinOps tooling, Microsoft 365, JIRA, Confluence. Compétences requises Landing Zone Azure / IAM / Réseau / Sécurité : Senior . Objectifs et livrables Livrables attendus : Dossiers d’architecture (Landing Zone, IAM, réseau, sécurité) – initiaux + MAJ à chaque évolution majeure. Référentiels de standards/patterns et principes de gouvernance. Modules Terraform et pipelines CI/CD (testés, versionnés, documentés). Guides techniques / DevEx, runbooks et documentation d’exploitation. Scripts d’automatisation, supervision & alerting avec couverture ≥ 95 % des composants critiques.
Freelance

Mission freelance
Data Scientist / AI Engineer

ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)

1 an
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement de solutions innovantes autour de l’intelligence artificielle, nous recherchons un Data Scientist / AI Engineer capable de concevoir, industrialiser et mettre en production des solutions IA performantes. Le rôle consiste également à instaurer des standards solides d’ingénierie logicielle afin de garantir la qualité, la fiabilité et la scalabilité des solutions développées. Vos missions Concevoir et développer des fonctionnalités basées sur l’intelligence artificielle. Construire et maintenir des pipelines de traitement de données. Industrialiser et monitorer les applications et services IA (latence, coûts, taux de réponse, satisfaction utilisateur). Mettre en place des pratiques MLOps / LLMOps : suivi d’expériences, déploiement, monitoring et observabilité des modèles. Garantir la qualité des données, la sécurité et la conformité réglementaire (notamment GDPR). Structurer les projets IA selon des standards d’ingénierie logicielle robustes (tests, CI/CD, documentation, bonnes pratiques). Participer aux revues d’architecture et diffuser les bonnes pratiques techniques au sein des équipes. Compétences techniques requises Machine Learning / Deep Learning (niveau expert). IA générative : LLM, RAG, prompt engineering, agents et orchestration. Analyse de données avancée. Traitement de données non structurées (PDF, images). Langages : Python avancé, SQL. Conception et intégration d’ APIs . Data pipelines : orchestration, streaming, feature stores. MLOps / LLMOps : CI/CD, Docker, Kubernetes, suivi des modèles, monitoring et observabilité. Bonnes pratiques de développement : structuration des projets, stratégie de tests, documentation technique. Environnement technique Python, SQL GCP Docker, Kubernetes CI/CD, MLOps / LLMOps
CDI
Freelance

Offre d'emploi
Data Scientist Computer Vision

Craftman data
Publiée le
Data science
Deep Learning
Google Cloud Platform (GCP)

3 mois
Grand Est, France
Dans le cadre de notre croissance, nous renforçons notre équipe data et recherchons un(e) Data Scientist spécialisé(e) en Computer Vision pour concevoir des solutions IA à fort impact business dans l’univers de l’ aménagement intérieur . Notre ambition : exploiter la donnée et l’IA pour aider les équipes commerciales à identifier les besoins clients et à configurer des scènes d’ameublement en temps réel , directement à partir d’images. 🎯 Vos missions Développer des modèles de Computer Vision (détection, segmentation, classification d’images) Transformer des images en insights actionnables pour les équipes commerciales Déployer et maintenir des solutions de traitement d’images en production sur GCP (Vertex AI) Concevoir des pipelines et algorithmes de visualisation temps réel de scènes d’ameublement Collaborer étroitement avec les équipes métier pour traduire les enjeux business en solutions techniques Participer au déploiement en production et aux bonnes pratiques MLOps Assurer une veille technologique continue en vision par ordinateur 🧠 Profil recherché Bac+5 en Data Science, IA, Informatique ou équivalent Minimum 2 ans d’expérience en Computer Vision dans des contextes similaires Solide maîtrise du Machine Learning / Deep Learning Très bonne maîtrise de Python et des frameworks TensorFlow / PyTorch Expérience du déploiement de modèles sur GCP / Vertex AI Connaissance des pipelines de production et des pratiques MLOps Capacité à comprendre les enjeux business et à travailler avec des équipes commerciales Autonomie, rigueur et curiosité technologique ✨ Pourquoi nous rejoindre ? Projets innovants à forte valeur business Impact direct sur les ventes et l’expérience client Environnement technologique moderne et stimulant Télétravail flexible et équipe collaborative
Freelance
CDI

Offre d'emploi
Chef de Projet IT Data Confirmé

Gentis Recruitment SAS
Publiée le
Data governance
Data management
Gestion de projet

12 mois
Paris, France
Contexte de la mission Dans le cadre d’un programme international de déploiement de Data Products au sein d’une entité majeure du secteur de l’énergie, nous recherchons un Chef de Projet IT confirmé . La mission porte sur la coordination du déploiement mondial de 3 à 4 solutions data couvrant notamment : Gestion des données fondamentales Données de production (éolien, solaire) Données de marché Les déploiements concerneront plusieurs pays : UK, US, Italie, Espagne. Objectifs de la mission Définir le planning d’adoption multi-pays Coordonner les chefs de projets produits Piloter une équipe transverse de 3 à 4 personnes Assurer reporting, gestion des risques et suivi budgétaire Garantir le respect qualité / coûts / délais Responsabilités principalesPilotage projet Planification et suivi opérationnel Coordination internationale Gestion des dépendances techniques Animation des comités de pilotage Gouvernance & Data Interaction avec Data Owners, Data Stewards, Data Custodians Compréhension des enjeux de data management Gestion des risques IT et SLA Déploiement Coordination des mises en production Organisation du support et maintenance Accompagnement des utilisateurs
CDI
Freelance

Offre d'emploi
Architecte / Expert Flux & Middleware (H/F)

RIDCHA DATA
Publiée le
Apache Kafka
CFT (Cross File Transfer)
Visual TOM

1 an
Paris, France
Contexte Dans le cadre de ses projets de transformation et d’évolution de son système d’information, un grand acteur du secteur du transport et de la mobilité recherche un Architecte / Expert Flux & Middleware afin d’accompagner les équipes sur la gestion, l’évolution et l’optimisation des architectures d’échanges de données. L’objectif est de soutenir les projets autour des flux applicatifs , de moderniser les architectures existantes et d’identifier de nouvelles opportunités technologiques. Missions Au sein des équipes techniques, vous interviendrez sur les missions suivantes : Architecture et expertise flux Assister et conseiller les équipes projets sur les solutions référencées au catalogue pour la mise en place des flux et le traitement de l’obsolescence. Assurer le lien technique entre les solutions métiers et les équipes Middleware . Définir les règles de transfert des flux à l’intérieur et entre les différentes lignes de service liées aux flux. Garantir la cohérence et la qualité des flux inter-applicatifs. Pilotage technique Assurer le rôle de Product Owner des lignes de service liées aux flux. Piloter les feuilles de route techniques et accompagner les évolutions des solutions. Participer aux comités d’architecture technique (CCAT / CVAT) afin de valider les bonnes pratiques liées aux flux. Exploitation et amélioration continue Réaliser un POC autour de la solution WAARP . Assurer le support de niveau 3 (N3) sur les lignes de service MQ et CFT . Maintenir la cartographie des flux techniques et logiques . Assurer une veille technologique sur les solutions d’échanges de données et les architectures associées.
CDI

Offre d'emploi
Ingénieur DevOps / Ingénieure DevOps [H/F/X]

REDLAB
Publiée le
Ansible
AWS Cloud
Azure DevOps

Rhône, France
Bonjour, nous c'est TerraOps! Pure Player DevOps/Cloud à Rouen, et désormais à Lyon , passionnés d’innovation, nous concevons, développons, déployons et maintenons des solutions de valorisation de données parfaitement adaptées à nos clients : industries de pointe, pharma, banques/assurances, start-ups et éditeurs logiciels. Pour nous accompagner dans cette tâche, nous sommes en quête de futurs aventuriers désireux de se plonger dans des projets ambitieux au cœur de la donnée. Nous cherchons aujourd’hui le profil qui viendra compléter notre équipe et travailler aux côtés de nos Chefs de Projets , Cloud Engineers , SRE , Cloud Architects , Architectes logiciels . En tant que DevOps , vous serez l’intermédiaire entre les équipes de développement informatique et celles d’exploitation. Véritable passerelle entre les deux mondes, vous maitrisez donc les enjeux et les préoccupations de chacun. Votre rôle : mettre en place les démarches et les outils pour répondre à leurs besoins (produire plus efficacement, plus rapidement, maintenir et mettre à disposition une infrastructure, garantir la stabilité des processus, etc.) Mais vous ne serez pas seul dans votre quête ! Vous travaillerez en étroite collaboration avec les équipes techniques, qui seront vos principaux interlocuteurs. Vous devrez faire preuve d'esprit de synthèse, proposer de nouvelles façons de travailler, être capable de prioriser et d'expliquer vos actions avant finalement de mettre les mains dans le cambouis. Vos responsabilités : · Concevoir, mettre en œuvre et maintenir l’infrastructure Cloud, en utilisant des services et des outils adaptés (par exemple : AWS, Azure, Google Cloud Platform) ; · Développer et automatiser les processus de déploiement ; · Collaborer avec les équipes de développement pour intégrer les pratiques DevOps dans les pipelines ; · Assurer la sécurité et la conformité des environnements Cloud ; · Surveiller et optimiser les performances des ressources Cloud, en identifiant et en résolvant les problèmes liés à l’infrastructure ; · Travailler en étroite collaboration avec les équipes d’exploitation, de développement et de support pour résoudre les problèmes et améliorer les processus ; · Documenter les procédures, les configurations et les bonnes pratiques liées à l’infrastructure.
5103 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous