L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 739 résultats.
Offre d'emploi
Chef de Projet Infrastructure H/F
Le Groupe SYD
Publiée le
Azure
Hyper-v
Linux
12 mois
45k-50k €
450-520 €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 💼 Poste : Chef de Projet Infrastructure H/F 📍 Lieu : Nantes (44) 🏠 Télétravail : Flexible 📝 Contrat : Portage ou CDI 👉 Contexte client : Tu rejoins un acteur majeur du secteur des services techniques et des infrastructures , en pleine transformation de son SI. L’équipe (10 personnes) pilote un périmètre large : systèmes, stockage, réseaux LAN/WLAN/SD‑WAN, cloud Azure , ainsi que l’intégration régulière de nouvelles entités dans le SI dans un contexte de croissance externe. Tu auras pour missions de : Piloter des projets d’infrastructure en lien avec les systèmes, le stockage, les réseaux LAN/WLAN/SD‑WAN et les environnements Cloud Azure. Coordonner les différents acteurs internes et externes dans un contexte multisite et multi‑entités. Accompagner les projets d’intégration liés à la croissance externe et à l’évolution du SI Corporate. Suivre les projets liés aux environnements de production et aux déploiements sur chantiers. Contribuer aux projets majeurs de migration de données et d’ évolution des datacenters. Assurer un reporting clair, structuré et régulier auprès des parties prenantes. Garantir la qualité des échanges, la synchronisation des équipes et le maintien d’un climat de confiance avec les prestataires. 🧰 Stack technique : Réseaux : HPE Aruba, Fortinet SD‑WAN, environnements sensibles conformes ANSSI Systèmes : Windows, Linux (faible proportion) Cloud : Azure Virtualisation : Nutanix Acropolis, HPE Simplivity, VMware, Hyper‑V, Proxmox Stockage : Synology Datacenters : infrastructures internes + réflexion externalisation Environnements : SI Corporate, SI Production, infrastructures chantiers clients
Mission freelance
Développer Angular Senior via l'IA
Tenth Revolution Group
Publiée le
Agent IA
Développement
6 mois
400-550 €
Bordeaux, Nouvelle-Aquitaine
🚀 Je recherche un(e) Senior Angular Developer… mais pas comme les autres ! Pour l’un de nos clients grand compte, nous recherchons un profil Angular senior pour rejoindre une petite équipe composée de 2 développeurs (1 junior et 1 alternant). 🧠 Particularité de la mission : le développement sera fortement assisté par l’IA. Le code sera majoritairement généré par l’IA, ce qui signifie que votre rôle sera davantage celui d’un architecte / lead technique que celui d’un simple codeur. 🎯 Ce que nous recherchons : Expertise solide sur Angular Idéalement une expérience sur les dernières versions (Angular v19 / v20 / v21) Très bonnes capacités de communication pour accompagner l’équipe Capacité à structurer le projet et mettre en place les tests unitaires Esprit d’architecture et de revue de code 👥 Contexte : Encadrement technique d’une petite équipe (1 junior + 1 alternant) Client grand compte Mission longue Démarrage ASAP 📍 Organisation : 2 jours de présentiel tous les 15 jours 💬 Si vous êtes intéressé(e) ou si vous connaissez quelqu’un qui pourrait l’être, n’hésitez pas à me contacter en message privé ! PAS DE SOUS TRAITANCE - MERCI #Agular #Frontend #IA #Recrutement #Freelance #Mission
Mission freelance
FORMATEUR CLOUD AWS (NIVEAU ARCHITECTE) H/F
ADSearch
Publiée le
AWS Cloud
AWS CloudFormation
Formation
3 mois
France
Contexte de la mission Dans le cadre d’un programme de montée en compétences internes, une organisation souhaite être accompagnée par un Formateur Cloud AWS de niveau Architecte , afin de former et mentorer un collaborateur IT sur des sujets avancés liés à Amazon Web Services (AWS) . La mission est exclusivement dédiée à la formation, au coaching et au transfert de compétences , sans responsabilité opérationnelle sur les environnements de production. Objectifs de la mission Accompagner la montée en compétences vers un niveau avancé / architecte AWS Structurer un parcours pédagogique progressif et adapté Transmettre les bonnes pratiques, patterns et standards d’architecture AWS Rendre le collaborateur autonome à l’issue de la mission Missions principales Formation & Pédagogie Évaluer le niveau initial du collaborateur Construire un plan de formation orienté architecture AWS Animer des sessions de formation (théorie et ateliers pratiques) Adapter la pédagogie au rythme et au niveau du collaborateur Vulgariser des concepts complexes liés à l’architecture Cloud Coaching & Mentorat Accompagner le collaborateur en posture de mentor Transmettre une vision globale et structurée des architectures AWS Partager les bonnes pratiques en matière de sécurité, de gouvernance et de performance Suivre la progression et ajuster le parcours si nécessaire Supports & Documentation Concevoir des supports pédagogiques orientés architecture Formaliser des schémas, patterns et bonnes pratiques AWS Produire un bilan de montée en compétences en fin de mission Périmètre technique de formation (indicatif) Architectures AWS (niveau avancé) Sécurité & gouvernance (IAM, Organizations, SCP) Réseaux AWS (VPC, subnets, routing, VPN) Haute disponibilité & résilience Optimisation des coûts (FinOps AWS) Supervision & observabilité Introduction à l’Infra as Code (CloudFormation / Terraform)
Offre d'emploi
Tech Lead Full-Stack / Data & Cloud (F/H)
CELAD
Publiée le
45k-51k €
Toulouse, Occitanie
Tech Lead Full-Stack / Data & Cloud (F/H) A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Toulouse Vous aimez autant coder que prendre de la hauteur sur l’architecture et la qualité logicielle ? Vous êtes à l’aise pour accompagner une équipe technique tout en mettant en place des stratégies de tests solides et durables ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e un.e Tech Lead Full-Stack pour intervenir chez un de nos clients, dans le secteur développement applicatif, data et cloud. Contexte : Vous rejoignez une équipe de développement qui conçoit et fait évoluer des applications à forte composante data , dans un environnement technologique moderne combinant Python, React et AWS . Votre rôle sera central : porter la vision technique , accompagner les développeurs et veiller à la qualité globale des livrables , notamment à travers la mise en place de stratégies de tests efficaces . L’objectif : construire des solutions robustes, performantes et maintenables dans le temps . Voici un aperçu détaillé de vos missions : Définir et porter la vision technique du produit Encadrer techniquement l’équipe de développement (code review, bonnes pratiques, pair programming) Participer activement au développement full-stack (Python / React) Contribuer aux choix d’ architecture applicative et data Optimiser les performances côté back-end et base de données Concevoir et faire évoluer les architectures cloud sur AWS Définir et structurer une stratégie de tests complète (tests unitaires, intégration, automatisation…) Mettre en place des pratiques favorisant la qualité et la fiabilité du code Participer aux choix technologiques et à l’évolution de la roadmap technique
Mission freelance
Proxy PO build - Snowflake + Power BI
FF
Publiée le
Azure Data Factory
Microsoft Power BI
Snowflake
1 an
Paris, France
Bonjour à tous, Mission longue 1 an ou + à Paris. Télétravail : 2 jours par semaine Date de démarrage : courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour accélérer la phase de BUILD de notre plateforme data. Cette mission vise à répondre à un besoin critique : face à un volume important de demandes utilisateurs et une incapacité à tout traiter faute de bande passante, ce PPO sera en charge de structurer et accélérer la livraison de nouvelles fonctionnalités, KPI et spécifications fonctionnelles. Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de faire le lien entre les utilisateurs métiers et les équipes de développement, en fournissant des spécifications fonctionnelles claires et exploitables. Objectif principal Accélérer le BUILD produit data : spécifications, nouveaux KPI, structuration des demandes utilisateurs. Le PPO BUILD devra gérer un fort volume d'échanges avec les utilisateurs, recueillir et formaliser les besoins métiers, définir et cadrer de nouveaux KPI, et travailler en étroite collaboration avec le Product Owner Data et les équipes de développement. Responsabilités clésGestion du backlog et cérémonies Agile • Participer aux cérémonies Agile et supporter le PO dans la gestion d'équipe • Gérer et opérer le backlog BUILD • Créer et maintenir les tickets Jira pour les équipes de développement avec des informations complètes : spécifications d'intégration de données, sources de données requises pour la construction des KPI, règles de transformation et critères d'acceptation Recueil et formalisation des besoins • Recueillir les besoins métiers auprès des utilisateurs clés • Mener des interviews utilisateurs à haut volume pour comprendre et cadrer les demandes • Formaliser les besoins sous forme de spécifications fonctionnelles claires et exploitables Analyse et construction des KPI • Analyser les sources de données nécessaires pour construire les KPI • Définir et cadrer de nouveaux KPI dans la plateforme data • Effectuer l'analyse technique et optimiser la logique de calcul des KPI • Concevoir des modèles de données dans Snowflake et Power BI Tests et validation • Effectuer des tests UAT (User Acceptance Testing) avec les parties prenantes dans Snowflake et Power BI • Tester et valider les fonctionnalités et améliorations livrées Suivi et optimisation • Surveiller et examiner l'orchestration et la planification des sources • Construire et affiner les modèles de données Power BI • Contribuer à la documentation fonctionnelle Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (KPI, dashboards) • SQL : connaissance fonctionnelle pour effectuer l'analyse de données, validation et compréhension des données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Spécifications fonctionnelles : capacité à rédiger des spécifications fonctionnelles claires et exploitables • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Excellentes capacités de communication avec les utilisateurs et les équipes de développement • Aisance dans les échanges avec des utilisateurs exigeants et capacité de facilitation et négociation avec les parties prenantes • Esprit de synthèse et structuration pour transformer des besoins complexes en spécifications claires • Autonomie forte et curiosité – capacité à apprendre rapidement le contexte métier • Décisif et axé sur les résultats • Esprit collaboratif Langues • Anglais : courant / bilingue obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à confirmé) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Assurer une approche centrée utilisateur dans toutes les décisions produit • Construire et maintenir la roadmap produit en collaboration avec le Product Owner Data • Définir des spécifications fonctionnelles claires et complètes • Planifier, piloter et prioriser les développements en utilisant la méthodologie Agile • Tester et valider les fonctionnalités et améliorations livrées • Fournir formation, support et communication aux utilisateurs Compétences clés demandées • AGILE • Snowflake (fonctionnel) • Microsoft Power BI : Niveau Expert Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
Mission freelance
Data Scientist orienté Marketing- H/F
Wekey
Publiée le
Data science
6 mois
600-660 €
Niort, Nouvelle-Aquitaine
Hello ! Nous c’est WEKEY ! Nous ne sommes ni une ESN ni un cabinet de recrutement. Aaah mais qui sommes-nous alors ? Pour tout savoir sur nous et votre future mission c’est par ici 😁⬇ Vous êtes Data Scientist orienté Marketing H/F et vous recherchez une mission en freelance ? Nous avons le projet qu’il vous faut pour l'un de nos clients basé à Niort dans le secteur des assurances. CE QUI VOUS ATTEND 👀 Dans le cadre de la mission votre rôle sera : Cadrage des besoins métiers (Marketing) Identification de cas d’usage IA (segmentation, churn, appétence, reco produit…) Analyse et préparation des données Conception, entraînement et évaluation de modèles ML Implémentation en Python jusqu’à la mise en production Présentation et vulgarisation des résultats Force de proposition sur des approches innovantes
Mission freelance
Data architecte / Expert Snowflake
Codezys
Publiée le
Apache Airflow
Kubernetes
Python
12 mois
Lille, Hauts-de-France
Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Offre d'emploi
Chef de Projet IT Data Confirmé
Gentis Recruitment SAS
Publiée le
Data governance
Data management
Gestion de projet
12 mois
Paris, France
Contexte de la mission Dans le cadre d’un programme international de déploiement de Data Products au sein d’une entité majeure du secteur de l’énergie, nous recherchons un Chef de Projet IT confirmé . La mission porte sur la coordination du déploiement mondial de 3 à 4 solutions data couvrant notamment : Gestion des données fondamentales Données de production (éolien, solaire) Données de marché Les déploiements concerneront plusieurs pays : UK, US, Italie, Espagne. Objectifs de la mission Définir le planning d’adoption multi-pays Coordonner les chefs de projets produits Piloter une équipe transverse de 3 à 4 personnes Assurer reporting, gestion des risques et suivi budgétaire Garantir le respect qualité / coûts / délais Responsabilités principalesPilotage projet Planification et suivi opérationnel Coordination internationale Gestion des dépendances techniques Animation des comités de pilotage Gouvernance & Data Interaction avec Data Owners, Data Stewards, Data Custodians Compréhension des enjeux de data management Gestion des risques IT et SLA Déploiement Coordination des mises en production Organisation du support et maintenance Accompagnement des utilisateurs
Offre d'emploi
Administrateur DBA Production Expert
KEONI CONSULTING
Publiée le
AWS Cloud
Nosql
Python
18 mois
20k-60k €
100-520 €
Lille, Hauts-de-France
CONTEXTE l’administrateur de bases de données (DBA) prend en charge des projets techniques tout en contribuant au maintien en condition opérationnelle des environnements SGBD relationnels et NoSQL sur notre Cloud (AWS / MongoDB Atlas). Nous recherchons une personne disposant d’une très bonne maîtrise des concepts SGBD, d’une connaissance approfondie du Cloud AWS, ainsi que d’un solide bagage en développement et en automatisation des systèmes (Python, Terraform, Git). MISSIONS - Être le contact privilégié sur la partie SGBD pour des projets techniques - Mise au point d’outils d’industrialisation, d’automatisation et délégation pour rendre autonome les factories et le pilotage sur des tâches SGBD - Contact régulier avec les architectes, développeurs et chefs de projets - Organisation, réalisation ou délégation des opérations de maintenance technique (type bascule cluster ou architecture répliquée, …) - Optimisations des performances et vigilance sur le capacity planning et la frugalité des environnements - Passage de livraisons applicatives et traitement des demandes courantes - Montée de versions SGBD ; application des patchs de sécurité, upgrade version majeure - Création et duplication d’environnements SGBD (instances / bases / schéma) - Suivi d’incidents avec les supports Editeur (Ex : Oracle Corp, Mongo Inc.) - Suivi des sauvegardes et tests de restauration - Mise en place de la supervision et test d’alerting - Rédaction de procédure pour enrichir la base de connaissances de l’équipe - Assurer une veille technologique : apporter une connaissance des pratiques et technologies émergentes - Astreintes et opérations en heures non ouvrées à prévoir. Astreintes obligatoires à la grille achat (1 semaine / mois lundi>dimanche) Spécificités Cloud - Intégrer de nouvelles solutions Cloud (DynamoDB, DocumentDB, RDS, etc.) au catalogue de service, en mettant au point les parties supervision, sauvegardes, monitoring, mise en production, etc. - Accompagner les factories : conseils sur les traitements applicatifs, le déploiement, l’exploitabilité et le traitement des alertes. Interactions : Equipes d’Exploitation, Factories, Architectes IT, Sécurité, CDP, Observabilité Livrables • Prise en charge des projets techniques tout en participant au maintien en condition opérationnelle des environnements • Mise au point d’outils d’industrialisation, d’automatisation et délégation pour rendre autonome les factories • Passage de livraisons applicatives et traitement des demandes courantes • Suivi d’incidents avec les supports Editeur (Ex : AWS, Mongo Inc.) • Suivi des sauvegardes et tests de restauration • Mise en place de la supervision et test d’alerting • Rédaction de procédure pour enrichir la base de connaissances de l’équipe • Assurer une veille technologique : apporter une connaissance des pratiques et technologies émergentes Le profil recherché ... ... connait le SQL / NoSQL ... connait l’environnement et les différentes technologies de DB sur le cloud AWS … peut nous apporter son expertise technique pour challenger des projets structurants ... est en mesure de nous accompagner dans le développement Infra As Code de nos solutions (Terraform, Ansible, Python) • SQL/noSQL • AWS • InfraAsCode (Python / Terraform / Git) • Architecture applicative • Connaissance en production • Bonne capacité à travailler en équipe • Force de proposition • Capacité de coordination • Autonomie Compétences clés : Obligatoire : Python, Terraform, AWS, Aurora PostgreSQL, Mongodb, Gitlab, Connaissance production.
Mission freelance
Ingénieur IA – Google Cloud (GenAI / LLM)
COEXYA
Publiée le
Agent IA
Google Cloud Platform (GCP)
Large Language Model (LLM)
6 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Agent Engineer spécialisé sur l’écosystème Google Cloud afin de contribuer au développement d’agents conversationnels basés sur l’intelligence artificielle générative. La mission s’inscrit dans un programme stratégique visant à enrichir l’expérience client grâce aux LLM et à automatiser certaines interactions du centre de relation client. Le consultant interviendra sur des cas d’usage concrets mêlant voicebot intelligent et agents conversationnels d’auto-diagnostic , avec un objectif clair : améliorer la compréhension des demandes clients et augmenter le taux de résolution au premier contact. Le rôle implique à la fois des compétences d’ingénierie IA, d’architecture technique et d’industrialisation des modèles . Rôle attendu Concevoir et développer des agents conversationnels basés sur des LLM au sein de l’écosystème Google Cloud Participer à l’évolution d’un voicebot existant en intégrant des capacités d’IA générative Concevoir un agent d’auto-diagnostic conversationnel permettant aux utilisateurs de diagnostiquer certaines pannes de manière autonome Mettre en place des architectures RAG (Retrieval-Augmented Generation) afin d’enrichir les réponses des agents Implémenter et optimiser les solutions sur Vertex AI et Dialogflow CX Contribuer à l’industrialisation des modèles : évaluation des LLM, tests de robustesse, métriques de performance et bonnes pratiques AIOps
Mission freelance
Ingénieur Fullstack - IA
CONCRETIO SERVICES
Publiée le
Agent IA
Angular
MLOps
12 mois
350-460 €
Île-de-France, France
Notre client, acteur majeur de son secteur, renforce ses équipes engineering dans le cadre du développement et de la maintenance de systèmes distribués à haute performance et haute résilience . Les solutions développées opèrent dans des environnements critiques où performance et faibles temps de réponse sont des exigences non négociables. L'intégration de technologies IA/ML, LLM et agents IA constitue un axe stratégique fort de ce programme. Activités principales Développer et maintenir des logiciels pour des systèmes distribués à fortes contraintes de performance Collaborer au sein d'une équipe pluridisciplinaire dans une logique de livraison fréquente (approche Agile) Garantir les plus hauts standards de qualité et de fiabilité du code : tests unitaires, tests d'intégration, non-régression Contribuer à l'intégration de solutions IA/ML, agents IA et LLM pour la co-construction de produits innovants (serveur MCP, agents de code type Cursor, etc.) Stack technique Front-end : Angular Back-end : Java et/ou Golang, C++ Domaine : Systèmes distribués, IA/ML, LLM, agents IA
Offre d'emploi
DevOps Azure H/F
OBJECTWARE
Publiée le
Azure
Niort, Nouvelle-Aquitaine
Vous interviendrez sur l’ensemble du cycle de vie des produits SI, en lien étroit avec les concepteurs et développeurs. Intégrer les enjeux d’exploitabilité, de performance et de supervision dès les phases d’idéation Accompagner les squads sur les dimensions performance, robustesse, sécurité et fiabilité Contribuer à la mise à disposition et au maintien des environnements (conteneurisés, cloud) Automatiser et industrialiser les déploiements dans une logique DevOps / CI-CD Garantir l’exploitabilité et l’observabilité des produits (monitoring, alerting, dashboards) Participer au capacity planning et à l’amélioration continue des produits Être garant de la complétude du dossier d’exploitabilité Environnement technique : - Observabilité : Grafana, Prometheus, Alertmanager, Dynatrace, Kibana, ... - Hébergement application : Azure, Kubernetes... - CI/CD : Pulumi, Helm, Github, Ansible, Jenkins... - Testing-Performance : Jmeter, Postman, Gatling...
Offre d'emploi
Développeur IA H.F
NSI France
Publiée le
Agent IA
IA Générative
Python
Paris, France
Acteur majeur dans le domaine IT, depuis notre création en 1993, nous n'avons cessé de croître et d'évoluer. Avec une équipe dévouée de près de 1.400 collaborateurs répartis sur plusieurs sites en Belgique, au Luxembourg, en France et au Canada, NSI a suivi une trajectoire exceptionnelle. Notre entreprise est à la pointe de la révolution numérique, offrant une gamme complète de services IT, de l'analyse au développement de logiciels, en passant par l'architecture et la gouvernance IT. Votre rôle au sein de NSI Le/la consultant(e) travaillera pour différents clients de NSI France basé en IDF avec de gros enjeux sur le développement d’agent IA. Vous intervenez notamment pour : Concevoir et développer des agents IA basés sur des LLM Implémenter des mécanismes de raisonnement, planification et prise de décision (agents autonomes / multi-agents) Intégrer des agents IA capables d’interagir avec : APIs et services internes, Bases de données et outils métiers, Pipelines data et systèmes d’information Orchestrer les agents (workflows, chaînes d’actions, mémoire, contexte) Industrialiser et déployer les agents IA en environnement de production Collaborer avec les équipes Data/Produit/Métier pour concevoir des cas d’usage concrets
Offre d'emploi
Ingénieur OPS
VISIAN
Publiée le
Ansible
Dynatrace
1 an
40k-45k €
400-500 €
Île-de-France, France
Ingénieur OPS Descriptif du poste Le bénéficiaire souhaite une prestation d'Ingénierie OPS afin de participer à des projets métier en mode équipage. La mission requiert une très forte capacité à maitriser les aspects techniques et en garantissant le respect des exigences de la Production et la bonne exploitabilité des produits mis en œuvre. L'automatisation via les toolchain et les outils XL Release sont attendus ainsi que la mise en supervision End to End du parc applicatif via Dynatrace en complément des évolutions applicative / technique à gérer dans une équipe produit Cloud. HNO et astreinte demandée. Anglais courant. Missions principales Réalisation les installations sur les différents environnements (Réaliser passage en production (mep, cab ...)) Facilité de déploiement des solutions Mise à disposition de l'équipe, en mobilisant les bonnes expertises / services de Production : le monitoring des services et Les environnements techniques (Prod et hors Prod) Conduction ou vérification des revues de sécurité de l'équipe Évolution des infras et les outils La remontée des propositions d'amélioration des services de production applicative dans une démarche d'amélioration continue Représentant de la Production dans l'équipe projet (Squad) (TOOLCHAIN - Ansible A/R) Promotion des solutions basées sur les produits et services existants, intégrant par nature les exigences de production et de sécurité (résilience, monitoring, …) afin de réduire le délai de mise en œuvre Définir, piloter et garantir les SLOs (Gestion des problèmes (récurrence incidents)) Assemblage des produits et services de production et d'infrastructure au profit des applications, en conseillant sur l'adoption des technologies en ligne avec les besoins applicatifs Support des équipes de développement pour sécuriser et accélérer la livraison des projets Implémentation des user stories techniques Suivi de l'Exploitabilité du Delivery - (PACT, PCR, Exigence de prod, normes et standards) Identification des points de blocage d'exploitation (flux, sécurité, réseau…) puis alerter et proposer des plans d'action Contribution à la définition des niveaux de service et des indicateurs de Production Veille à l'existence et au test d'un plan de bascule en backup (ICP) Définition de l'architecture Technique (SATS/CASA) - Participation aux réunions de définition de l'architecture Le contrôle de la traçabilité des accès aux machines (OS, Espace de stockage, routeurs…) et remédier si nécessaire Vérification de l'exploitabilité des environnements techniques (backup/restore, accès aux données, performances…) Anticipation des problématiques de conformité aux règles et standards d'architecture, de sécurité, de délais de livraisons et de mise à l'échelle des solutions proposées Veille à l'ajout des exigences d'infrastructures et d'exploitation dans le Product Backlog, ainsi que toute User story technique jugée nécessaire (industrialisation, gestion de l'obsolescence, …) Définition et mettre en place/faire évoluer le Monitoring Mise en place la surveillance et la supervision de la Solution mise en production Disposition de l'équipe, en mobilisant les bonnes expertises / services de Production : Le monitoring des services et Les environnements techniques (Production et hors Production) Mise en place les consignes (Pilotage applicatif) et AEL Référentiel Documentation & GED Veille de la disponibilité d'une documentation Rôle consultatif De part son expertise et son rôle il donne son avis : Le manuel utilisateur (fonctionnel) Gestion des incidents – Assistance en cas de blocage ou d'incident sur les versions mises en production La continuité applicative (ICP/Backup Restore/DR) - Restauration des bases de données La guilde technique Compétences techniques attendues (maîtrise) Linux / Windows / Docker / Kubernetes / Ansible Pratiques d'automatisation "as code" s'appuyant sur une culture DevOps et Agile Technologies / Langages : Cloud (Docker, Kubernetes) / Oracle / MongoDB / CFT, Control M, Liberty Core - Websphere / MongoDB, SGBD Oracle Monitoring : Dynatrace OS Linux et Windows, AIX Langages : YAML, Python, Shell Toolchain et automatisation : GitLab, Ansible Tower, Ansible Galaxy, Artifactory, Jenkins, GitLab-CI, XL Release La certification éditeur peut être un critère différenciant
Offre d'emploi
BUSINESS ANALYST TECHNIQUE - RAG/ IA GENERATIVE
SMILE
Publiée le
Data science
IA Générative
RAG
6 mois
Paris, France
Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du groupe. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein d'Assets IA, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Mission de business analyst avec des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Missions principales : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets. • Suivre la production afin de garantir la satisfaction du client.
Mission freelance
Data Platform Engineer
Cherry Pick
Publiée le
AWS Cloud
Python
12 mois
600-650 €
Paris, France
Objectifs Votre mission est de responsabiliser et de faire monter en compétence notre communauté de plus de 50 data engineers et data scientists. Agissant comme le lien essentiel entre les feature teams et les ingénieurs de la plateforme, vous serez le garant de l’adoption et de l’évolution de notre plateforme data en fournissant un support technique opérationnel, en partageant les bonnes pratiques et en animant des initiatives de partage de connaissances. Grâce à un engagement proactif, un support direct et une collecte continue de feedback, vous favoriserez un environnement collaboratif, innovant et à fort impact — garantissant que notre plateforme s’adapte en permanence et délivre une valeur maximale à ses utilisateurs. Missions principales 1. Support technique : Accompagner les data engineers et data scientists dans leurs problématiques techniques en fournissant des solutions opérationnelles, des conseils, des bonnes pratiques et un support via des interactions directes au sein de leurs équipes. S’assurer que la dette technique est identifiée, comprise et gérée via des plans d’actions, et participer aux tâches sous-jacentes. Fournir des outils pour aider à gérer cette dette (tests, automatisation, agents IA, …). Collaborer avec les équipes data platform et support afin de garantir que les problèmes au sein des pipelines data et de la plateforme data sont identifiés et résolus, améliorant ainsi l’expérience développeur globale. 2. Évangélisation : Promouvoir l’adoption de la plateforme data par une utilisation quotidienne, en démontrant sa valeur auprès des utilisateurs existants. Partager avec la communauté de pratique et les équipes internes les tendances du marché, outils et technologies liés aux plateformes data. 3. Montée en compétences des équipes : Évaluer le niveau actuel des équipes sur les outils et pratiques de la Data Platform et l’améliorer via des formations, des exercices et la résolution de problématiques réelles. Promouvoir et animer une communauté de pratique afin de construire des parcours de formation d’amélioration, des ateliers internes et des webinaires mettant en valeur les capacités de notre Data Platform. Créer du contenu technique tel que des articles de blog, tutoriels, projets exemples et documentation afin d’aider les développeurs à comprendre et utiliser efficacement notre plateforme. 4. Boucle de feedback : Collecter activement les retours de la communauté des développeurs afin de fournir des analyses et suggestions d’amélioration produit aux équipes d’ingénierie de la plateforme. Fournir des tests pertinents pour les actifs techniques produits par les ingénieurs de la Data Platform et s’assurer qu’ils correspondent aux usages actuels des feature teams. Représenter les data engineers et data scientists au sein de l’entreprise, en veillant à ce que leurs besoins et défis soient compris et pris en compte. Qualifications / Compétences requises Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité. Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout. Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente. Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python). Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement. Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés. Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif. Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français. Atouts supplémentaires : Expérience en développement produit agile et en méthodologie Scrum. Expérience de migration de pipelines data vers le cloud. Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud. Environnement technologique : AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … Data engineering : Airflow, Parquet, Apache Iceberg DevOps : Jenkins, SonarQube, Conda Logiciels : Python, Ruff
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5739 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois