Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 505 résultats.
Freelance

Mission freelance
Lead Développeur

HAYS France
Publiée le
Google Cloud Platform (GCP)
Hibernate
IA Générative

1 an
Lille, Hauts-de-France
Dans un contexte international et fortement orienté produit, vous intervenez en tant que Lead Développeur Java / Front VueJS sur un programme stratégique visant à développer un générateur de configurateurs produits et services destiné à plusieurs enseignes d’un grand groupe européen de l’amélioration de l’habitat. Intégré(e) à une Feature Team agile , vous jouez un rôle clé à la fois technique et transverse. Vous êtes responsable de la conception, de la qualité et de la scalabilité d’un monolithe modulaire critique, utilisé à grande échelle dans différents pays. Vous garantissez l’isolation des modules fonctionnels (catalogue, règles métier, configurateur, nomenclature) et la bonne communication via APIs internes, dans une logique d’architecture robuste et maintenable. Vous intervenez sur l’ensemble du cycle de vie du produit : conception, développement, tests, documentation et mise en production. Une attention forte est portée à la qualité logicielle , avec des pratiques TDD/BDD, des tests d’intégration avancés et la validation stricte des spécifications OpenAPI. Le poste comporte une dimension innovante marquée, notamment à travers l’intégration d’ IA générative dans le cœur métier : interaction avec des modèles LLM via Spring AI, conception de prompts intégrés au code, génération dynamique de règles, d’analyses métier et de requêtes complexes. Au-delà du développement, vous jouez un rôle de référent technique , contribuez aux choix d’architecture, sécurisez les performance (cache distribué, gestion des données complexes, versioning métier) et participez à la diffusion d’une culture d’excellence technique au sein de l’équipe.
Offre premium
Freelance
CDI

Offre d'emploi
Business Analyst IT

Les Filles et les Garçons de la Tech
Publiée le
Business Analyst
Formation
Support utilisateurs

6 mois
36k-38k €
300-350 €
Île-de-France, France
Afin d'accompagner le roll out d'une application FVL dans le monde, notre client souhaite renforcer son équipe d'un profil Business Analyst. La mission consiste à : * Former et prendre en main de la solution (module par module) * Préparer et adapter les supports pour les formation aux utilisateurs * Animer les ateliers de formation sur site ( déplacements en France et à l'international à prévoir ) * Documentation et support niveau 1 et 2 aux utilisateurs * Ticketing des évolutions ou d'anomalies rencontrés s'il y a * Suivre et valider les correctifs et modifications des supports de formation
CDI

Offre d'emploi
[Analyste SOC] H/F

CONSORT GROUP
Publiée le

92800, Puteaux, Île-de-France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s’appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de Consortis sont au cœur des enjeux actuels de Cybersécurité, Virtualisation & Cloud, Systèmes, Réseaux et Télécom, ainsi que sur les environnements Digital Workplace. Les compétences RPA et DevOps viennent renforcer ces offres pour accélérer l’agilité et l’efficacité opérationnelle des services délivrés. [Analyste SOC] H/F C’est votre mission Vous êtes passionné·e par la cybersécurité et la gestion des incidents ? Ce poste est fait pour vous. En tant qu’ Analyste SOC Senior , vous êtes responsable de la surveillance, de la détection et de la réponse aux incidents de sécurité, tout en contribuant à l’évolution des capacités SOC : Côté build : Piloter des projets techniques SOC (SIEM, EDR, SOAR, sécurité cloud) Définir et améliorer les stratégies de détection Automatiser les workflows SOC (playbooks, procédures) Participer à l’amélioration continue des outils et processus SOC Contribuer aux analyses de risques et aux revues sécurité projets Côté run : Assurer la surveillance et l’analyse des alertes de sécurité Investiguer et répondre aux incidents (qualification, remédiation, coordination) Optimiser les alertes SOC (réduction des faux positifs) Coordonner les équipes IT, sécurité et prestataires Produire la documentation (procédures, REX) Participer aux astreintes SOC C’est votre parcours Vous avez au moins 5 à 8 ans d’expérience en cybersécurité, dont une expérience significative en SOC ou CSIRT. Vous aimez investiguer, automatiser et améliorer les dispositifs de sécurité sans jamais cesser d’innover. Vous recherchez un environnement structuré, international et exigeant. C’est votre expertise SIEM : Splunk EDR / SOAR Sécurité réseau : firewalls, proxy Environnements Microsoft : Active Directory, O365, Azure Cloud : AWS Scripting : Python, Bash C’est votre manière de faire équipe Esprit d’analyse et capacité d’investigation Autonomie et rigueur Capacité à coordonner plusieurs interlocuteurs Bon relationnel et communication Anglais professionnel C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un échange technique avec un.e de nos Un dernier point avec votre futur.e manager Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Île-de-France, Puteaux Contrat : CDI Télétravail : Hybride selon mission Salaire : 60K€ – 65K€ brut annuel Famille métier : Cybersécurité / SOC
CDI

Offre d'emploi
Data Scientist et IA H/F

Le Groupe SYD
Publiée le
BI
IA Générative
Intelligence artificielle

50k-60k €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes (44) 🏠 Télétravail : 2 jours par semaine ✔ Démarrage ASAP ✏ CDI client final (pré-embauche) 👉 Contexte client : Dans le cadre de notre développement, nous recherchons un Data Scientist et IA H/F afin d'intégrer la Data Factory de notre client. Au sein d'un équipe composée de 2 Data Scientists, tes missions sont : Accompagner la transformation digitale numérique, data et IA du client Gérer les projets IA / Data adaptés à l'entreprise Participer aux projets qui concernent tous les domaines fonctionnels (finance, supply chain, ressources humaines...) Comprendre les enjeux métiers des projets Participer aux lancements des nouveaux projets et assurer les RUN des projets déjà livrés Effectuer de la veille technique et documentaire ( bon niveau en anglais écrit et lu demandé )
CDI

Offre d'emploi
Coach Agile / Scrum master FH

ASTRELYA
Publiée le
Agile Scrum
IA

65k-80k €
92800, Puteaux, Île-de-France
Votre mission : En tant que Scrum Master / Coach Agile, vous jouerez un rôle clé dans la structuration, l’animation et la performance des équipes projet au sein d’environnements complexes, exigeants et fortement orientés architecture informatique. Vous interviendrez en accompagnement des équipes et des sponsors pour garantir un delivery fiable, transparent et aligné avec les enjeux stratégiques. Concrètement, vous allez : · Structurer le cadre du projet : périmètre, objectifs, dépendances, risques, planning, gouvernance, gestion des problèmes. · Accompagner la définition de la solution : pilotage des exigences, coordination de l’architecture fonctionnelle et technique, contribution au modèle opérationnel cible. · Animer la gouvernance projet : préparation et pilotage des comités (lancement, GA, PID, architecture, investissement, COPIL, groupes de travail). · Mettre en place un reporting clair et un plan de communication efficace, produire des synthèses et supports décisionnels. · Piloter les livrables : garantir leur complétude, leur qualité et leur livraison, en coordination avec les sponsors et les équipes projet. · Gérer les risques, problèmes et actions correctives, maintenir un registre à jour et piloté. · Préparer et coordonner la stratégie de test : stratégie globale, phases de test, cohérence des scripts automatisés (unitaires, intégration, régression) dans un environnement Agile DevOps. · Accompagner la gestion du changement auprès des parties prenantes. · Préparer la clôture du projet et capitaliser sur les enseignements. · Promouvoir les pratiques Agile & DevOps : CI/CD, automatisation, qualité logicielle, amélioration continue. · Faciliter la collaboration entre Product Owners, Scrum Masters, développeurs, architectes, sécurité, testeurs, sponsors et équipes métiers. Votre futur environnement : · Méthodologies : Agile / Scrum / Kanban · Pratiques : CI/CD, automatisation, qualité logicielle, DevOps · Outils : Git, Jenkins, Docker, Kubernetes Contexte : projets complexes, architecture informatique, secteur financier, environnements cloud (DMZR ou équivalent)
CDI

Offre d'emploi
Analyste - Développeur Data & IA F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Python
SQL

Romorantin-Lanthenay, Centre-Val de Loire

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Ingénieur Cloud Junior (AWs/GCP/DevOps)

CONCRETIO SERVICES
Publiée le
Apache Kafka
AWS Cloud
DevOps

6 mois
450-500 €
Nanterre, Île-de-France
MISSIONS PRINCIPALES Supervision & Disponibilité Production Assurer le monitoring 24/7 des systèmes de production via Grafana, Prometheus, Datadog et Stackdriver — détection proactive des anomalies avant impact utilisateur Créer et maintenir les dashboards et les alertes, corréler les événements pour le diagnostic d'incidents Participer à l'astreinte on-call (PagerDuty) sur les systèmes critiques Gestion des Incidents Prendre en charge les incidents de production, mener le troubleshooting et produire les RCA (Root Cause Analysis) Définir et mettre en œuvre les actions correctives et préventives pour éviter la récurrence Communiquer de façon claire avec les équipes et le management en situation de crise Automatisation & Infrastructure as Code Écrire et maintenir les configurations Terraform en production (modules, state management, workspaces) Automatiser les opérations répétitives via Python et Bash — déploiements, inventaire, vérification, reporting Gérer la configuration via Ansible et maintenir les pipelines GitLab CI Exploitation des Environnements Conteneurisés & Plateformes Opérer Kubernetes en production : déploiements, services, scaling HPA, troubleshooting pods/nodes, gestion des namespaces et RBAC Opérer Kafka en production : monitoring du lag consumer, gestion des topics et partitions, diagnostic des incidents de streaming Assurer le support opérationnel sur les bases de données : PostgreSQL, Elasticsearch, Couchbase (performances, sauvegardes, restaurations) Réseau & Sécurité Cloud Gérer les VPN, NAT, routage IP, proxy et load balancing en environnement cloud AWS et GCP Appliquer les bonnes pratiques de sécurité et de gestion des accès (IAM, VPC)
Freelance

Mission freelance
DevOps Cloud Engineer GCP / Azure (H/F)

Izyfree
Publiée le
Google Cloud Platform (GCP)
Python
Terraform

3 ans
440-480 €
Lille, Hauts-de-France
Contexte Dans le cadre de l’évolution du produit Landing Zone, nous recherchons un DevOps Cloud Engineer pour participer au développement des plateformes cloud. Nous recherchons un DevOps Cloud Engineer capable de faire évoluer les Landing Zones cloud, avec une forte expertise GCP, Azure, Terraform et automatisation. La Landing Zone permet aux collaborateurs de commander en quelques minutes un espace sur le cloud public, principalement GCP mais aussi Azure, avec une pré-configuration de l’écosystème pour déployer leurs applications rapidement, de manière sécurisée et autonome. Missions contribuer au développement et à l’évolution des Landing Zones cloud automatiser le déploiement des infrastructures via Terraform développer et maintenir des outils d’automatisation cloud, réseau et sécurité implémenter des services backend en Python participer au développement de composants frontend en Vue.js concevoir des solutions cloud natives sécurisées et automatisées participer aux revues d’architecture et de code garantir la qualité, la maintenabilité et la performance des solutions corriger les anomalies et améliorer les plateformes existantes accompagner les équipes techniques dans l’usage des services développés
Freelance
CDI

Offre d'emploi
Software Engineer GCP (H/F)

WINSIDE Technology
Publiée le
Automatisation
Azure
Google Cloud Platform (GCP)

6 mois
45k-48k €
400-450 €
Lille, Hauts-de-France
Informations pratiques Démarrage : 04/05/2026 Fin de mission : 30/10/2026 Présentiel : 2 jours par semaine Astreintes : oui Contexte du projet Dans le cadre d’un programme stratégique de transformation cloud pour un grand groupe international , nous recherchons un(e) DevOps – niveau expert pour intervenir sur une plateforme interne de type Landing Zone . Cette plateforme permet aux équipes internes de provisionner en toute autonomie des environnements cloud sécurisés (principalement GCP , mais aussi Azure ) afin d’y déployer leurs applications rapidement, tout en respectant les standards du groupe. Objectifs de la mission Vous contribuerez au développement et à l’évolution des produits cloud et des outils d’automatisation des infrastructures réseau et sécurité, avec pour objectifs : la mise à disposition de plateformes cloud self-service l’automatisation complète des déploiements d’infrastructures le renforcement de la sécurité et de la fiabilité des environnements cloud Vos missions 🔧 Développement Concevoir et développer des composants logiciels backend et frontend Implémenter des APIs et services backend en Python Développer des interfaces frontend (Vue.js) Concevoir et maintenir des solutions Infrastructure as Code (Terraform) Participer au développement et à l’évolution des Landing Zones cloud Développer des outils d’automatisation réseau (firewall, opérations réseau) 🧱 Architecture & Conception Répondre aux besoins métiers via des solutions cloud natives Concevoir des architectures cloud sécurisées, automatisées et scalables Participer aux revues d’architecture et de code Définir et faire évoluer les standards techniques et bonnes pratiques ✅ Qualité & Tests Développer et maintenir des tests unitaires et automatisés Garantir la qualité, la performance et la maintenabilité du code Identifier et corriger les anomalies et régressions 🔄 Maintenance & Support Assurer la maintenance corrective et évolutive des solutions existantes Accompagner les équipes techniques dans l’utilisation des plateformes Participer aux astreintes liées au projet
Freelance
CDI

Offre d'emploi
Offre de mission d'un Recetteur et Analyst QOD sur Paris

EterniTech
Publiée le
Google Cloud Platform (GCP)
Microsoft SQL Server
QA

3 mois
Paris, France
Je cherche pour un de mes clients un Recetteur et Analyst QOD sur Paris Contexte de la mission : Dans le cadre du programme de transformation de la Data B2B (Polaris), Le client construit son nouvel espace de données sur la plateforme Groupe AIDA (Google Cloud Platform/BigQuery). La stratégie adoptée est une approche "Greenfield" en méthode scrum : reconstruction des produits de données (et non migration "Lift & Shift") depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI) en utilisant un framework interne : l'ELT HYDRA (s'appuyant sur DBT comme back-end) La prestation s'intègre au sein de la "Core Team", l'équipe transverse chargée de bâtir le socle technique et les données de référence (RCU=Référentiel Client Unique et les clés associées) qui serviront ensuite aux Squads Métiers pour bâtir leurs produits data Afin de sécuriser les livrables de chaque Sprint et de pallier le manque de maturité data des systèmes amont, nous créons un poste dédié à la Recette Data et à la Qualité des Données (QoD). Objectifs/Descriptif de mission : Le consultant agira comme le "Bouclier Qualité de la Donnée" de la Core Team et des Squad métier. En support direct des Product Owners et du Scrum Master, la prestation consistera à : 1) Recetter les livrables produits data : Valider que les tables générées dans BigQuery respectent les règles de gestion définies par les PO lors des Sprints. 2) Traquer la dette Data (Data Profiling) : Écrire des requêtes SQL complexes pour profiler les données sources et cibles (détection de doublons, calcul des taux de valeurs nulles, incohérences de formats, ruptures d'intégrité référentielle). 3) Automatiser les contrôles QoD : Traduire ces règles de gestion en scripts/assertions SQL qui seront intégrés dans notre framework d'orchestration ELT (Hydra) pour un contrôle continu (à chaud et à froid). 4) Alerter et documenter : Remonter factuellement les anomalies de données imputables aux systèmes sources B2B (CRM, Facturation) pour forcer les arbitrages métiers. Livrables attendus Activités / Lots Résultats attendus / Livrables associés Planning / Date de livrables Data Profiling & Audit Amont : Exploration en SQL avancé des données brutes issues du legacy B2B. L'objectif est d'identifier les anomalies avant la modélisation Requêtes SQL d'audit (Data Profiling) Cartographie des anomalies sources (Identification de la "Dette Data" amont) Recommandations techniques au PO pour adapter les règles de gestion du RCU. En amont et au début de chaque Sprint Ingénierie des tests et implémentation QoD (Framework Hydra) : Traduction des règles de gestion métier et des critères d'acceptation du Product Owner en tests techniques automatisés dans le Framework HYDRA. Scripts SQL de tests de QoD "à chaud" et "à froid" (assertions : unicité, non-nullité, bornes de valeurs, check croisés) Intégration des règles de Qualité (QoD) dans le code ELT (Hydra) Documentation des règles de contrôle dans le Data Catalog (AIDA / ODG). Continu (Pendant le Sprint) Recette Backend & Validation des livrables Core Team Test et validation des tables physiques générées par les Data Engineers à la fin de chaque itération. Cahier de recette technique (Cas de tests documentés dans Jira). Requêtes SQL de validation finale (UAT Backend) Bilan de recette (Go / No-Go technique) autorisant l'exposition de la table aux Squads Métiers. À la fin de chaque Sprint (toutes les 3 sem.) Monitoring de la Dette Data & Exposition (Cockpit QoD): Mise en place d'un suivi de la santé des données. Vues SQL (Cockpit QoD) sur HYDRA monitorant la santé des données par domaine (Parc, Facturation, Client). Création et suivi des tickets d'anomalies (Jira) assignés aux fournisseurs de données (IT B2B) Continu / Sprint Review Compétences requises Compétences et expériences obligatoires : SQL Avancé (Niveau Expert) : Capacité à manipuler des millions de lignes, maîtriser les jointures complexes, les expressions régulières (Regex) et les fonctions analytiques pour traquer les anomalies. Mindset "QA / Testeur" appliqué à la Data : Esprit critique, rigueur extrême, capacité à imaginer les "cas aux limites" (Edge cases) pour faire crasher les modèles. Compréhension Fonctionnelle B2B : Capacité à comprendre une règle métier (ex: le cycle de vie d'un contrat) pour la traduire en test technique. Agilité & Environnement Backend : Habitude de travailler en Sprints courts avec des livraisons fréquentes sur des socles de données Cloud (Architecture dénormalisée, tables Pivots). Compétences souhaitées Connaissance du secteur Télécom : Compréhension des produits et services Telecom (fixe/mobile). Google Cloud Platform (GCP) : Pratique courante de BigQuery (requêtage orienté colonnes, champs imbriqués) et le FINOPS associé Frameworks ELT : Connaissance des transformations "in-database" 100% SQL (type dbt, Dataform) pour une prise en main rapide de notre framework interne (Hydra). Savoir-être : Esprit "Crash-Test" & Rigueur : Posture de traqueur d'anomalies. Ne pas se contenter du cas nominal, chercher systématiquement les cas aux limites (Edge cases). Fermeté & Posture de "Bouclier" : Courage de remonter la dette Data aux systèmes sources (IT B2B) sans chercher à corriger manuellement une donnée corrompue en amont. Esprit de synthèse : Capacité à vulgariser les problèmes techniques de qualité (QoD) pour forcer les arbitrages des Product Owners Métiers. Pragmatisme : Livrer de la valeur incrémentale. Expérience : > 7 ans Localisation : 16 Rue du Général Alain de Boissieu A Exclure : Ce que nous ne cherchons PAS : PAS de Testeurs QA "Logiciel/Web" : Nous ne voulons pas de testeurs d'interfaces graphiques (IHM). ). Le travail se passe à 100% dans la base de données. PAS de profils BI / Dataviz : La recette ne se fait pas visuellement sur Power BI ou Tableau. Elle se fait par le code (SQL). PAS de Scrum Masters ou PMO : Le rôle est opérationnel ("Hands-on"
Freelance

Mission freelance
Data Engineer

Orcan Intelligence
Publiée le
DBT
Docker
ETL (Extract-transform-load)

3 mois
400-500 €
Paris, France
Dans le cadre du développement de solutions data à l’échelle de l’entreprise, nous recherchons un Data Engineer Senior. Vous interviendrez sur la conception et la mise en œuvre de solutions de data warehouse, en manipulant de grands volumes de données structurées et non structurées. Vous collaborerez étroitement avec les architectes data et les équipes métier afin de traduire les besoins en solutions techniques robustes et performantes. Missions principales Traduire les besoins métier en spécifications techniques Développer des flux ETL (outils natifs type TPT, SQL et outils tiers comme DBT) Rédiger et optimiser des requêtes SQL complexes et scripts shell Concevoir et développer des pipelines de données (batch et streaming) Mettre en place des solutions d’ingestion de données à faible latence Définir et implémenter des processus d’intégration dans l’environnement IT Superviser les performances et recommander des optimisations Rédiger et maintenir la documentation technique Interagir avec les clients pour affiner les besoins Supporter les équipes projet et delivery
Freelance

Mission freelance
Responsable IA Analyst

Sapiens Group
Publiée le
Large Language Model (LLM)
MLOps
RAG

12 mois
500-520 €
Lille, Hauts-de-France
Missions principales 1. Gouvernance & conformité IA Appliquer la politique d’usage de l’IA Contribuer à la classification des cas d’usage selon leur niveau de conformité Mettre en œuvre les standards de documentation et de versioning Assurer la traçabilité (prompts, sources, modèles, décisions) Préparer les éléments pour les revues DPO et Juridique 2. Analyse de risques IA (HARA) Réaliser les analyses de risques IA Identifier les risques : biais, hallucinations, dérive, sécurité, cohérence métier Classifier les cas d’usage selon leur criticité Documenter les exigences de conformité associées 3. Contrôles & tests IA (QA Responsible IA) Exécuter les tests non-fonctionnels IA (robustesse, biais, sécurité, hallucinations, dérive) Documenter les résultats de tests Identifier et signaler les non-conformités Préparer les éléments nécessaires à la décision Go / No Go 4. Documentation & audit Contribuer à la documentation IA Act (volet opérationnel) Maintenir à jour les preuves et logs IA Préparer les éléments nécessaires aux audits IA indépendants 5. Supervision en run Suivre les incidents IA post-déploiement Mettre à jour les tableaux de bord de conformité et de risques Participer aux revues périodiques (performance, fiabilité, dérive) 6. Traçabilité & registre IA Mettre à jour le registre des systèmes IA Garantir une journalisation conforme (logs, prompts, décisions) Contribuer à l’amélioration des standards de traçabilité IA 7. FinOps IA (conformité) Suivre la consommation IA (tokens, modèles, API) Identifier les usages non conformes ou excessifs Alerter en cas d’écarts significatifs 8. Policies & acculturation IA Appliquer les policies IA internes Contribuer à l’évolution des guidelines IA Participer à la sensibilisation et à la formation des équipes Profil recherché Compétences techniques Connaissance des architectures IA (LLM, RAG, agents) Compréhension des principes MLOps (logs, versioning, monitoring) Bonne connaissance des réglementations IA (IA Act, RGPD) Maîtrise des tests IA : robustesse, biais, hallucinations, dérive Compétences transversales Formation Bac +5 (ingénieur, data science, informatique, école de commerce) Rigueur et sens du détail Esprit analytique et structuré Capacité à challenger les équipes IT, Produit et Métiers Excellentes capacités rédactionnelles Forte sensibilité aux enjeux éthiques, réglementaires et technologiques liés à l’IA Langues Français : courant Anglais : intermédiaire (B1/B2) – contexte international Livrables attendus Analyses de risques IA (HARA) Registre des systèmes IA Documentation IA Act (opérationnelle) Rapports de tests et contrôles IA Journalisation et dispositifs de traçabilité Suivi des incidents IA
Freelance
CDI

Offre d'emploi
Expert ELK/Supervision et monitoring Zabbix

AVALIANCE
Publiée le
Agent IA
Elasticsearch
ELK

3 ans
40k-45k €
400-700 €
La Défense, Île-de-France
-Au sein du Département Framework & Moyens et du Pôle Outils, CI/CD et Réseau de la Direction des Opérations (DOP), il interviendra en tant qu'ingénieur Elastic au coeur de notre solution de monitoring (Zabbix,ELK, grafana, infludb). -Connaissances attendues: - Architecture Elastic. - Certification Search, observability souhaitées. - Connaissances et expérience sur les modules IA et elastic_agent attendues. Une expérience en milieu financier est fortement appréciée par le client mais pas obligatoire.
Freelance

Mission freelance
Business Analyst (Nantes) H/F

LeHibou
Publiée le
Business Analyst

3 ans
400-500 €
Nantes, Pays de la Loire
Notre client dans le secteur Banque et finance recherche un/une Business Analyst H/F Description de la mission: Profil recherché : Nous recherchons un Business Analyst expérimenté, disposant d'une expertise confirmée en mainframe, d’une excellente maîtrise du cadrage fonctionnel et d’une solide expérience des méthodes Agile / SAFe. Expérience : 8 ans minimum, dont une part significative en tant que développeur Mainframe (langage Cobol) Attendus du poste : Compréhension et analyse du besoin métier Conception de solution applicative complexe et prise de hauteur par rapport à une solution transverse Centraliser et répondre aux besoins Clarifier, analyser d’un point de vue critique et constructif et le cas échéant challenger le besoin formulé par le Métier aux regards des objectifs d’optimisation IT et/ou métiers Analyser des impacts fonctionnels et techniques Participer à l’élaboration et au cadrage des solutions fonctionnelles, aux devis & chiffrages, études d’impact, dossiers d’opportunité Construire la solution globale en réponse au besoin, en restant pragmatique et exigeant sur la pérennité de cette solution Contribuer à la définition de la stratégie de de tests et recettes Mettre à jour le backlog produit avec le PO Participer aux différentes cérémonies agiles Rédiger les spécifications fonctionnelles générales et détaillées et maintenir les documents spécifiques Assurer le cas échéant le suivi post MEP et le suivi financier : budget, consommés, projections Run & Support : Maximum 10% du temps consacré au Run : Gestion des incidents, Analyse des dysfonctionnements, Réponses métiers, Petites évolutions et améliorations continues. Outils de gestion de projet et méthodologies : Environnements Agile : Scrum, SAFe. Outils : JIRA, Confluence, ServiceNow, SharePoint. Maîtrise des outils bureautiques avancés : Excel, modèles, suivi budgétaire. Connaissance des technologies : Mainframe, COBOL, CICS, JCL, DB2, Armide, API, WebServices, Kafka, FileMQ, CTG Communication & relationnel : Excellente capacité à expliquer, convaincre, et de façon générale, à communiquer avec les équipes métier, les développeurs, la production, les architectes et la direction. Sens de la pédagogie, capacité à vulgariser Capacité à transformer les données brutes en informations exploitables, à analyser, critiquer et négocier Rigueur et précision Adaptabilité, aptitude à travailler en transversal dans un environnement multi-projets.
Freelance

Mission freelance
Chef de projet Technique (GCP/ Atlassian)

CAT-AMANIA
Publiée le
Confluence
Google Cloud Platform (GCP)
JIRA

12 mois
500-580 €
Paris, France
Vous interviendrez de la phase de projet à la mise en production, l'industrialisation des projets sous GCP. Vos missions consisteront à contribuer: Préparer les supports de présentation technique ou de gouvernance, Participer et animer les réunions hebdomadaires techniques entre les équipes projets, production, Identifier les sujets et les actions techniques, Créer les structures de projet dans JIRA afin de suivre les projets, Préparer, suivre la mise à jour des dashboards Jira, les reportings sur les risques, décisions, Challenger les différents interlocuteurs et équipes afin de tenir les délais et plannings projets, Support des équipes techniques dans les phases de troobleshooting, Collecter, consolider les informations,
Freelance

Mission freelance
INGENIEUR IA

ROCKET TALENTS
Publiée le
DevOps
GPU
IA Générative

1 an
400-450 €
Saint-Quentin, Hauts-de-France
Missions : Vous intégrez au sein de l'équipe Service Infrastructure Open Natif et Data du Service Mise en marché des plateformes, et plus précisément dans le pôle Data. Vous serez en charge de la mise à disposition, de la maintenance et de l'évolution d'un ensemble de services liés aux offres autour de l'IA générative et du machine learning du client (LLMaaS, GPUaaS, Dataiku, etc.) À ce titre, les actions attendues sont les suivantes : Assurer le suivi et l'exploitation des plateformes IA pour nos utilisateurs internes. Accompagner la consommation des offres IA au sein du cluster, incluant l’accompagnement pour l'exposition de modèles LLM, la gestion des ressources GPU via Run:AI, et le déploiement de solutions RAG. Accompagner les équipes internes du cluster BPCR sur l'utilisation de ces plateformes, en assurant un support technique et méthodologique adapté à leurs besoins. Créer et mettre à disposition des services automatisés via Python et GitLab-CI pour faciliter l'adoption et l'utilisation des solutions IA. Les qualités pour mener à bien ces missions : Techniques : Bonnes connaissances en data science avec une compréhension des cycles de vie des modèles (entraînement, évaluation, déploiement, monitoring). Bonnes connaissances de Python pour le scripting, l'orchestration d'API REST et l'intégration de modèles. Bonne connaissance des concepts liés à Kubernetes (pods, services, namespaces, déploiements, etc.) et compréhension de son rôle dans l'hébergement et la mise à disposition de charges de travail IA. Compréhension des concepts d'IA générative (fine-tuning, transfer Learning, etc.), des architectures LLM et des patterns RAG. Connaissance des notions liées au GPU (allocation, mémoire, optimisation) et des frameworks de serving de modèles (vLLM, TGI ou équivalent). Bonnes connaissances de l'environnement Linux et des pratiques DevOps/MLOps. Familiarité avec des solutions de recherche vectorielle. Comportementale : Sens du service client Autonomie. Rigueur. Force de proposition. Vulgarisation. Esprit curieux et veille technologique active sur les évolutions de l'IA.
1505 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous