L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 448 résultats.
Offre d'emploi
Data Scientist Generative IA (4jrs TT) sur 92
EterniTech
Publiée le
Data science
IA Générative
Pytorch
3 mois
Hauts-de-Seine, France
Je recherche pour un de mes clients un Data Scientist Generative IA avec 4 jours TT sur 92 VOTRE MISSION** * Concevoir et industrialiser des solutions d’IA Générative (LLMs, Agents, RAG) répondant aux besoins des AI Catalysts, priorisés par le PO. * Intégrer les composants GenAI à l’écosystème existant (GenAI Core, OneAPI, Azure AI Foundry), tout en respectant les normes de sécurité et de coûts. * Définir et implémenter les architectures techniques : choix de modèles, orchestration d’agents, conception RAG, gestion des sessions. * Développer et maintenir le code (principalement Python) et les briques réutilisables (librairies de prompts, agents). * Industrialiser le déploiement : conteneurisation (Docker), Kubernetes, CI/CD, Infrastructure as Code (Terraform), et monitoring. * Mettre en œuvre des pratiques MLOps : suivi des expériences, versioning de modèles, tests de régression, validations en pré-prod. * Assurer la qualité et l’observabilité : métriques de performance, tests adversariaux, suivi des dégradations en production. * Collaborer avec le PO, le Software Engineer, les AI Catalysts et la DSI pour garantir la sécurité et l’adoption des solutions. * Contribuer à la documentation, aux templates et à la formation des équipes internes. *VOTRE PROFIL * Bac +3 à Bac +5 en informatique, data science ou équivalent. * 3 à 5 ans d’expérience en développement d’applications utilisant l’IA, avec un accent sur l’IA Générative (Agents, RAG, LLMs). * Maîtrise de Python et des bibliothèques ML/IA (PyTorch, Transformers). * Connaissances des frameworks GenAI : LangChain, LangGraph, LangFuse, et des moteurs de recherche sémantique (Qdrant, Milvus). * Compétences en architecture cloud Azure (AI Foundry, AKS, WebApp) et en conteneurisation/orchestration (Docker, Kubernetes). * Familiarité avec CI/CD et Infrastructure as Code (Terraform). * Sensibilité aux enjeux de cybersécurité et de conformité. * Rigueur dans l’ingénierie logicielle : tests, documentation et automatisation des pipelines. * Capacité à travailler en équipe et à vulgariser les concepts techniques. * Anglais professionnel (lu/écrit) ; français courant indispensable. Définition du profil DATA SCIENTIST: - En charge du développement d'algorithmes (Machine Learning et Intelligence Artificielle) pour créer de la valeur métier à partir de données (structurées, non structurées, vidéos, images, etc.). - Doit comprendre les demandes de l'entreprise et les challenger pour fournir la meilleure réponse possible. - Apporte un support à la décision sur d'éventuelles innovations, l'amélioration des performances et décisions relatives au service client. - Industrialise les projets de Data Science avec les Data Engineers. - Maintient et documente les algorithmes industrialisés (selon les rôles et les responsabilités définis par le projet).
Offre d'emploi
Ingénieur Systèmes & Intégration (Linux / Cloud / DevOps) H / F
CONSORT GROUP
Publiée le
93100, Montreuil, Île-de-France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de Consortis, sont au cœur des enjeux actuels de Cybersécurité, Virtualisation & Cloud, Systèmes, Réseaux et Télécom, ainsi que sur les environnements Digital Workplace. Les compétences RPA et DevOps viennent renforcer ces offres pour accélérer l’agilité et l’efficacité opérationnelle des services délivrés. C’est votre mission Vous êtes passionné·e par les environnements infrastructure, cloud et haute disponibilité ? Ce poste est fait pour vous. EVous êtes passionné·e par les environnements infrastructure, cloud et haute disponibilité ? Ce poste est fait pour vous. En tant qu’ Ingénieur Système DevOps GCP , vous êtes responsable du pilotage des projets d’infrastructure cloud et de la fiabilité de notre écosystème IT : Côté Build : Concevoir, déployer et faire évoluer des infrastructures cloud sur Google Cloud Platform Implémenter des architectures scalables, résilientes et sécurisées (GKE, Compute Engine, Cloud SQL…) Réaliser les migrations vers GCP (lift & shift, refonte vers des architectures cloud native) Développer et maintenir des infrastructures via Infrastructure as Code (Terraform) Mettre en place et optimiser des pipelines CI/CD (GitLab CI, Cloud Build…) Automatiser les déploiements et la gestion des environnements (dev, staging, production) Contribuer aux choix techniques et aux bonnes pratiques DevOps / Cloud Assurer la standardisation et la reproductibilité des environnements Participer à l’amélioration continue des processus de build et de déploiement Côté run : Assurer le maintien en conditions opérationnelles (MCO) des infrastructures sur Google Cloud Platform Exploiter, administrer et optimiser les services GCP (GKE, Compute Engine, Cloud SQL…) Garantir la disponibilité, la résilience et la performance des plateformes Mettre en place et maintenir les outils de supervision et d’observabilité (Cloud Monitoring, Prometheus, Grafana) Surveiller les systèmes, analyser les alertes et intervenir en cas d’incident Diagnostiquer et résoudre les incidents de production (niveau 2/3) Automatiser les tâches d’exploitation et les procédures de remédiation Mettre en œuvre et tester les stratégies de continuité d’activité (PRA/PCA) Optimiser les coûts et les performances des ressources cloud Participer aux post-mortems et à l’amélioration continue de la fiabilité Contribuer à une approche inspirée du Site Reliability Engineering (SLO, SLA, error budgets) C’est votre parcours Vous avez au moins 5 ans d’expérience dans des environnements DevOps exigeants, avec une forte orientation cloud et idéalement sur GCP. Vous aimez piloter des projets complexes, automatiser les infrastructures et garantir la fiabilité des systèmes à grande échelle. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. Vous disposez également d’un anglais courant , vous permettant d’évoluer dans un contexte international. C’est votre expertise : Environnements Linux / systèmes distribués Cloud (AWS, Azure ou GCP) et migrations associées Méthodologies Agile / gestion de projet IT Outils d’infrastructure et d’automatisation (Terraform, Ansible…) Gestion de la haute disponibilité, PRA/PCA C’est votre manière de faire équipe : Leadership et capacité de coordination transverse Esprit d’analyse et sens des priorités Communication claire avec équipes techniques et métiers Proactivité et force de proposition C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Montreuil Contrat : CDI Télétravail : Hybride Salaire : De 50 K€ à 60 K€ (selon expérience) brut annuel Famille métier : Infrastructure / Cloud / DevOps Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Mission freelance
Expert réseaux et sécurité
AVALIANCE
Publiée le
Cisco
Fortinet
Network
3 ans
400-650 €
La Défense, Île-de-France
Nous recherchons pour notre client un expert réseaux et sécurité pour une mission longue a la Défense Contexte de la prestation Vous serez intégré au Pôle Outils, CI/CD et Réseau de la Direction des Opérations (DOP). Ce pôle comporte quatre équipes. • ISI – Industrialisation des services d’Infrastructure • OSM - Outils de Sécurité et Middleware • Outils de Monitoring • Réseaux et Sécurité Vous serez au service de l'équipe réseau et sécurité Définition de la prestation -Participer à la conception et à l’évolution des infrastructures LAN, WAN et VPN, en adéquation avec les besoins métiers, dans le respect de la stratégie et des contraintes budgétaires et sécuritaires de la société -Participer à la mise en production des infrastructures réseaux & sécurité -Contribuer au bon fonctionnement, à la disponibilité des infrastructures réseau, à leur maintien en condition opérationnelle et leur maintien en condition de sécurité (pare-feux, systèmes de détection d’intrusion, proxies, etc.). -Assurer une veille technologique afin d’être une force de proposition pour l’évolution des technologies, infrastructures et architectures -Assurer l’interface entre les équipes lors de la mise en place de réseaux -Assurer la bonne gestion des droits d’accès au réseau, pour les machines et pour les utilisateurs dans le respect des règles de sécurité de l’entreprise -Participer aux tâches de “RUN” (incidents et demandes de travail) de l’équipe réseau -Participer aux tâches de “BUILD” (constructions de nouvelles infrastructures, évolutions d’infrastructures existantes) de l’équipe réseau Livrables • LIVRABLES : DAT / DIT / DEX / HLD / LLD o Cahiers de tests Etapes Autres informations Organisation de son travail Être impliqué, rigoureux, réactif Respecter les processus, normes et procédures en vigueur Aisance et capacités d’adaptation dans des environnements techniques complexes et variés Capacités rédactionnelles Coopération « transverse » Adaptation au changement Environnement technique Compétences requises Domaines techniques Outils d'administration, infra, réseau, middleware Réseaux Technologies iOS équipements réseau et sécurité Autres compétences RP: UBIKA RZO: Cisco FW: Fortinet, Forcepoint, palo, checkpoint juniper... Documents de consultation
Offre d'emploi
Data Designer
CAT-AMANIA
Publiée le
Confluence
Île-de-France, France
Le Data Designer : • sera rattaché au Shared service Data Office • interviendra dans les trains SAFe, pour représenter la composante Data dans le rôle System Architect du train ; Il travaillera avec deux autres architectes (technique & fonctionnel) pour accompagner les équipes agiles. • pourra intervenir sur des sujets transverses, dans le Shared service Data Office Requis • Connaissance des principes de modélisation (UML, Merise, etc) • Connaissance de la gouvernance des données • Connaissance architecture Datacentric • Connaissance Event Driven Architecture • Bonne connaissance du monde bancaire • Capacité à mener des interviews, et à coordonner des contributeurs • Capacité à travailler en mode agile Souhaité : • Connaissance de la modélisation des processus
Offre d'emploi
Data Engineer
VISIAN
Publiée le
Apache Hive
Apache Spark
Hadoop
1 an
45k-58k €
400-550 €
Paris, France
Le datalake est utilisé comme une data plateforme pour les équipes IT et métiers. L'objectif de la mission est d'assurer le rôle de Data Engineer de ce datalake : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : Acheminement de la donnée Mise à disposition de la donnée aux équipes utilisatrices Mise en production de modèles statistiques Suivi de projet de développement Développement job spark Traitement et ingestion de plusieurs formats des données Développement des scripts Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données Développement des moyens de restitution via génération de fichier et ou API & Dashboarding Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP Participer à la conception, mise en place et administration de solutions Big Data Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Mission freelance
IA Delivery Product Owner / Business Analyst
ESENCA
Publiée le
Data quality
GenAI
Large Language Model (LLM)
1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : IA Delivery Lead Position dans l’organisation Le/la IA Delivery Product Owner / Business Analyst contribue à la conception et à la livraison des cas d’usage en intelligence artificielle, en assurant l’interface entre les besoins métiers et les équipes de delivery. Encadrement Aucun management direct Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Équipes Digital / Data / IA Équipes en charge de l’adoption et de la transformation Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, RAG, etc.) Cabinets de conseil spécialisés Mission Le/la IA Delivery Product Owner / Business Analyst est responsable de l’exécution produit et de l’AMOA sur les cas d’usage IA (copilots, agents, solutions RAG). Il/elle traduit les besoins métiers en backlog, spécifications fonctionnelles et parcours utilisateurs, organise la recette et contribue à l’amélioration continue des solutions en production. Le poste intervient dans un cadre structuré : sans responsabilité sur le développement technique sans responsabilité directe sur la conformité sans responsabilité sur la préparation des bases de connaissances Responsabilités principales 1. Cadrage des besoins Animer les ateliers métiers (besoins, irritants, processus, scénarios) Formaliser les cas d’usage et les priorités Contribuer à la définition des indicateurs de succès 2. Gestion du backlog et priorisation Construire et maintenir le backlog produit (user stories, critères d’acceptation) Prioriser les évolutions avec le IA Delivery Lead et les parties prenantes Préparer et animer les rituels Agile Garantir la clarté et la qualité des tickets 3. Conception fonctionnelle Définir les parcours utilisateurs et scénarios d’usage Formaliser les règles métier et comportements attendus Intégrer les mécanismes de gestion des limites de l’IA (incertitude, erreurs, hallucinations) Concevoir des expériences utilisateur robustes et sécurisées 4. Coordination des prérequis Exprimer les besoins en données et en bases de connaissances Contribuer à la formalisation des exigences de traçabilité et d’usage Collaborer avec les équipes techniques pour clarifier les besoins fonctionnels Assurer l’alignement entre les différentes parties prenantes 5. Recette fonctionnelle Définir la stratégie de tests (cas nominaux, limites, scénarios sensibles) Préparer et exécuter les phases de recette Suivre les anomalies et piloter leur résolution Contribuer aux décisions de go / no-go 6. Amélioration continue et industrialisation Collecter les retours utilisateurs et identifier les axes d’amélioration Alimenter le backlog d’évolution Capitaliser sur les retours d’expérience Contribuer à la standardisation des pratiques (copilots, agents, RAG)
Mission freelance
Consultant Power BI/Azure Data Factory
OAWJ CONSULTING
Publiée le
Azure Data Factory
Microsoft Power BI
1 an
450-500 €
Paris, France
BESOIN URGENT !!! Dans le cadre d’un projet de transformation data, notre client recherche un consultant data orienté BI et data engineering. Secteur immobilier. Missions Développement et maintenance de pipelines avec Azure Data Factory Modélisation de données pour les besoins analytiques Création de dashboards Power BI (DAX, performance) Amélioration de la qualité et des flux de données Participation à l’industrialisation (CI/CD, DevOps) Interaction avec les équipes métiers Profil recherché 3 à 5 ans d’expérience en Data Engineering / BI Très bonne maîtrise d’Azure Data Factory Bonne maîtrise de Power BI (modélisation, DAX) Connaissance des environnements DevOps Autonomie et bon relationnel
Offre d'emploi
data engineer AWS, Snowflake, SAP
LEVUP
Publiée le
AWS Glue
MySQL
Python
1 an
Liège, Belgique
Présence sur site 3j/semaine Mission Construire et maintenir des pipelines de données fiables et scalables sur AWS et Snowflake. Responsabilités Développer des pipelines ETL/ELT Participer à une intégration d'SAP Intégrer et transformer les données Modéliser les données (data warehouse) Optimiser les performances et les coûts Assurer la qualité des données (tests, monitoring) Orchestrer les workflows (Airflow ou équivalent) Collaborer avec les équipes data et métier Stack technique AWS (S3, Glue, Lambda, Redshift) SAP Snowflake SQL Python Airflow / dbt / Git Profil Expérience en data engineering Bonne maîtrise SQL et modélisation Expérience cloud (AWS) Autonomie, rigueur Bonus Docker CI/CD Expérience data lake / lakehouse
Mission freelance
Architecte du Système d’Information H/F
Le Groupe SYD
Publiée le
10 mois
480-550 €
Paris, France
🌟 Quel sera ton poste ? 🌟 📍Lieu : Paris 🏠 Télétravail : Non applicable 📝Contrat : Freelance 👉 Contexte client : Tu rejoins un grand acteur du secteur bancaire et financier , engagé dans une démarche de modernisation, d’industrialisation et de sécurisation de son système d’information . Au sein du pôle Infrastructure, l’ Impact Team accompagne les équipes de production applicative dans la conception d’architectures API robustes , la standardisation des pratiques , et l’ autonomisation des équipes , dans un contexte de forte croissance des besoins en infrastructure et d’enjeux élevés en termes de performance, disponibilité et sécurité. Tu auras pour missions de : Concevoir et définir l’architecture cible du système d’information en lien avec la stratégie globale. Développer et déployer des APIs de gestion des infrastructures en Python / FastAPI. Accompagner la migration vers des architectures orientées API et industrialisées. Garantir la cohérence et l’urbanisation du SI (applications, infrastructures, données). Mettre en œuvre et maintenir des pipelines CI/CD intégrant Jenkins, Bitbucket et Artifactory. Industrialiser et automatiser les pratiques afin de fiabiliser les services et les déploiements. Intégrer les tests unitaires et de non‑régression dans les chaînes de développement. Assurer un rôle de conseil et de validation des choix techniques auprès des équipes projets. Participer à la veille technologique, aux POC et à l’amélioration continue des standards. Rédiger et maintenir la documentation d’architecture, les procédures et les normes associées. 🧰 Stack technique : CI/CD & DevOps : Jenkins (confirmé impératif), Bitbucket (confirmé impératif), Artifactory (junior important). Développement API : Python, FastAPI. Qualité & tests : tests unitaires, tests de non‑régression. Architecture & pratiques : architectures orientées API, industrialisation, automatisation, sécurité des développements. Bonus : Ansible, Angular. Environnement : infrastructures critiques, SI bancaire fortement structuré et réglementé.
Mission freelance
Administrateur Réseaux et Systèmes
APIXIT
Publiée le
Administration Windows
2 mois
380-420 €
Ballainvilliers, Île-de-France
L'un de nos clients dans le secteur médical recherche pour une durée de 2 mois dans un premier temps un(e) Administrateur Système et Réseaux Vos missions : Le BESOIN en bref (Séniorité, descriptif des tâches, environnement, équipe, …) : - L'administrateur Systèmes et Réseaux a la responsabilité principale du fonctionnement du système d'information de l'entreprise, en tenant compte des attentes et besoins des utilisateurs, tout en veillant aux évolutions technologiques. Il assure la maintenance des réseaux et des équipements, développe et adapte les différentes applications et BDD. >> 40% du temps. - L'administrateur Systèmes et Réseaux participe également à la sécurité du système d’information. Il a pour mission de protéger les données et les réseaux informatiques de l’entreprise contre les attaques externes et internes. Pour cela, il doit mettre en place les mesures de sécurité adaptées aux besoins de l’hôpital, en fonction de son activité, de ses données sensibles et de ses risques. Il doit également veiller à la mise à jour régulière des logiciels et des équipements de sécurité, ainsi qu’à la formation des utilisateurs aux bonnes pratiques de sécurité. L’administrateur Systèmes et Réseaux doit être en veille permanente sur les nouvelles menaces et les nouvelles technologies de sécurité, afin de proposer des solutions innovantes et efficaces pour protéger l’hôpital. >> 30% du temps. - L’administrateur Systèmes et Réseaux participe au support utilisateurs et au renouvellement annuel du parc informatique. >> 30% du temps. Astreintes possibles
Mission freelance
Architecte data
ESENCA
Publiée le
Architecture
Collibra
Gouvernance
1 an
Lille, Hauts-de-France
Objectif global Accompagner la conception et la mise en place de l’architecture Data. Contexte Projet à dimension internationale avec des contraintes fortes de conformité et d’alignement des données aux besoins métier. Description détaillée Le/la Data Architect intégrera la plateforme HRDP (Ressources Humaines) pour : Concevoir des modèles conceptuels de données par contexte métier Identifier les événements métier par contexte Définir et formaliser les Business Terms, Business Attributes et Business Events dans Collibra Définir les Indicateurs Clés de Performance (KPI) par contexte métier Définir les règles de qualité des Business Terms Analyser la conformité des API et des Data Sets avec l’architecture data Réaliser le data lineage Rédiger le dossier d’architecture data répondant aux besoins business exprimés dans le quarterly plan Participer à la data governance de la plateforme
Mission freelance
Architecte sécurité
JARVIS IT
Publiée le
Architecture
Cybersécurité
IAM
1 an
400-700 €
Île-de-France, France
Architecte Sécurité – Production Security Au sein de l’équipe Production Security de notre client du secteur bancaire , vous intégrerez une équipe d’ Architecture Sécurité Transverse , en charge de garantir la sécurité des systèmes en environnement de production. Vos missions principales Définir et concevoir des architectures sécurisées adaptées aux enjeux métiers et techniques Réaliser des analyses de risques (type EBIOS, ISO 27005, etc.) Challenger les équipes opérationnelles (DevOps, Infra, Cloud) sur les bonnes pratiques de sécurité Assurer le suivi des projets et veiller à la bonne mise en œuvre des exigences de sécurité Apporter une vision globale et cohérente de la sécurité à l’échelle du SI
Mission freelance
Architecte Réseau Senior
SKILL EXPERT
Publiée le
Android
Azure
DHCP (Dynamic Host Configuration Protocol)
6 mois
600 €
Paris, France
Missions Pour l'un de nos clients, vous travaillerez sur une mission à haute valeur en tant qu'Architecte Réseau Senior. En étroite collaboration avec vos homologues, vous soutiendrez et conseillerez notre client dans la gestion du cycle de vie de leur infrastructure actuelle et contribuerez à l'évolution de leurs schémas directeurs opérationnels. L'objectif principal de cette mission de 6 mois est de livrer le plan directeur de conception de l'infrastructure pour les opérations des sites mondiaux (usines et entrepôts). Vous serez chargé d'auditer les architectures actuellement déployées afin de fournir des recommandations concrètes d'optimisation de la conception. Les enjeux clés incluent la rationalisation des services partagés (DHCP) et la consolidation des SSID Wi-Fi.
Mission freelance
Consultant Réseau Senior
HAYS France
Publiée le
Automatisation
Fortinet
SD-WAN
3 ans
100-420 €
Lille, Hauts-de-France
Intervenant entre autres sur les plateformes d'interconnexion WAN du groupe , la mission consiste à : - analyser des infrastructures réseau de clients internes et proposer des plans d'actions structurées pour faire évoluer une architecture - participer aux opérations d'évolution d'un backbone avec routage dynamique BGP/OSPF/MPLS - mettre en oeuvre des interconnexions (peering BGP, VPN ipsec...) avec définition de mode opératoire/rollback - déployer pour des clients internes des solutions de connectivité réseau SDWAN (Fortinet, Palo Alto...) - définir et mesurer des métriques réseaux (par exemple, mesure de l'usage et de la performance de nos services) à diffuser à nos clients - gérer des changements réseaux divers (gestion de flux, upgrade de liaisons, migration de VPN, activation d'IPS...) - écrire des guidelines de configuration pour bien utiliser une solution technique - automatiser des tâches récurrentes - participer au maintien en condition opérationnelle (upgrade routeurs, renouvellement d'équipements FW...), et à l'amélioration continue (correction de vulnérabilités de sécurité, définition de procédures d'exploitation, amélioration du monitoring de nos infrastructures...) - assurer l'interconnexion fluide entre les infrastructures on-premise et l’environnement Google Cloud Platform (Cloud Interconnect, VPC Peering, Shared VPC) - industrialiser le réseau en développant des scripts Python pour automatiser les tâches récurrentes, le provisionnement des ressources et la gestion des configurations (Infrastructure as Code) - participer à la gestion d'incidents (routage, firewalling...), analyse de problèmes de performance, gestion des demandes de changements mineurs (un jour de RUN par semaine minimum) Les opérations et interventions critiques sont réalisées de nuit (0h-4h) Il y a des astreintes à la semaine, quand le périmètre est maîtrisé, toutes les 5 semaines
Offre d'emploi
Tech Lead Fullstack FAE
SKYLLIT
Publiée le
Angular
Apache Maven
CI/CD
Île-de-France, France
Missions – Tech Lead Full Stack Porter les exigences DSI et les NFR Assurer le leadership technique et l’architecture (API, events…) Garantir la sécurité (veille CVE, bonnes pratiques) Prendre en charge les enablers techniques Promouvoir et appliquer les pratiques DevSecOps Concevoir, maintenir et sécuriser les pipelines CI/CD (tests automatisés, Jenkinsfile) Développer, corriger et assurer la qualité (tests unitaires, automatisés, End-to-End) Gérer les anomalies et le suivi de production Veiller à la conformité des livrables aux standards techniques Suivre les indicateurs d’excellence opérationnelle Participer aux rituels Agile/SAFe, aux estimations et aux communautés de pratique Collaborer avec les équipes du train (Système, Tech Leads…) Utiliser les outils de supervision applicative Intégrer l’usage de l’IA générative Si tu veux, je peux aussi adapter le wording pour un ton plus “consulting” ou plus “interne DSI”.
Mission freelance
Data Engineer – Scala / Spark - Solution digitale - Paris (H/F)
EASY PARTNER
Publiée le
Apache Airflow
Apache Kafka
Apache Spark
1 an
400-500 €
Paris, France
Contexte Dans le cadre du renforcement de ses équipes data, un acteur du secteur digital recherche un Data Engineer pour intervenir sur des problématiques de traitement et d’exploitation de données à grande échelle. Missions Concevoir et maintenir des pipelines de données (batch & streaming) Gérer l’ingestion, la transformation et la qualité des données Développer sur des environnements Big Data (Spark, Kafka) Mettre en place et optimiser les workflows (Airflow) Participer à l’industrialisation des traitements (CI/CD) Collaborer avec les équipes Data, DevOps et métiers Stack technique • Scala / Python / SQL avancé Spark / PySpark, Kafka Airflow (ETL / orchestration) Cloud : Azure et/ou AWS Git, CI/CD
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5448 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois