L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 944 résultats.
Mission freelance
OPS Linux, Stockage, Virtualisation
AVALIANCE
Publiée le
Administration linux
Linux
Maintien en condition opérationnelle (MCO)
3 ans
400-700 €
Paris, France
Vous rejoindrez une équipe en charge des services infrastructure "Managed compute", "Development & Services" et "Cloud”. Au sein de notre équipe Infrastructure, vous serez le garant de production et du maintien en condition opérationnelle de nos systèmes : •Référent sur la partie opérationnelle de notre périmètre (Daily, Gestion des priorités, compréhension des demandes utilisateurs) •MCO de notre parc de stockage entreprise (SAN + NAS) •MCO sur notre parc de virtualisation vmware •Déploiement de serveurs ou vm Linux
Offre d'emploi
DBA SQL Server Senior / Architecte Azure
Gentis Recruitment SAS
Publiée le
Azure
12 mois
Hauts-de-Seine, France
🚨 Mission Freelance – DBA SQL Server Senior / Architecte Azure (Niveau N4) ⏳ Durée : mission longue (12 mois renouvelables) 📍 Environnement : architecture cloud-first orientée Azure PaaS (usage majoritaire) 🚫 Filtrage strict : toute candidature hors périmètre sera automatiquement rejetée ❗ Prérequis impératifs (éliminatoires) Les conditions suivantes sont non négociables : Minimum 11 ans d’expérience en administration SQL Server Expertise confirmée et opérationnelle sur Azure SQL en mode PaaS Niveau anglais courant (communication écrite et orale en contexte professionnel) Expérience démontrée en environnements critiques (production, haute disponibilité, PRA) 👉 Toute candidature ne respectant pas l’ensemble de ces critères sera écartée sans analyse complémentaire 🎯 Périmètre et responsabilités Administration, exploitation et support des bases SQL Server (du N1 au N4) Conception, évolution et validation d’architectures SQL Server sur Azure PaaS Gestion d’environnements critiques incluant : haute disponibilité (HA) plan de reprise d’activité (PRA / DRP) mécanismes de failover / clustering Support et accompagnement des équipes techniques (développement, infrastructure, data) Industrialisation des processus (déploiement, configuration, exploitation) Automatisation des opérations récurrentes Analyse, optimisation et pilotage des performances et des coûts cloud 🛠 Compétences techniques obligatoires 🔴 SQL Server (expertise avancée) Maîtrise des architectures Always On et Failover Cluster Instances Optimisation avancée des performances (requêtes, indexation, tuning) Capacity planning et gestion de la volumétrie Diagnostic et résolution d’incidents complexes (niveau N3/N4) 🔴 Azure (compétence centrale et différenciante) Expérience concrète en production sur : Azure SQL Database Azure SQL Managed Instance Services Azure liés (stockage, réseau) Migration et transformation vers des architectures PaaS Optimisation des coûts et des performances sur Azure 👉 Une expérience limitée à Azure VM ou une simple exposition cloud n’est pas suffisante 🔴 DevOps / Automatisation Mise en place et gestion de pipelines CI/CD (Azure DevOps) Infrastructure as Code (Terraform ou équivalent) Scripting avancé : PowerShell (obligatoire) Python ou Bash (apprécié) 🔴 Environnements critiques Mise en œuvre de stratégies HA / PRA / DRP Architecture distribuée et résiliente Gestion d’incidents majeurs et situations de crise 🧩 Compétences complémentaires appréciées Expérience multi-SGBD (PostgreSQL, MongoDB, Oracle) Outils de monitoring avancé (Grafana, Prometheus, Zabbix…) Environnements hybrides (Azure / AWS / On-premise) Approche FinOps et optimisation des coûts cloud 👤 Profil attendu DBA senior / Architecte (niveau N4) Capacité à : concevoir et faire évoluer une architecture cible challenger des choix techniques intervenir efficacement en production critique Autonomie, rigueur, sens de la performance et de la fiabilité ⚠️ Profils hors cible (refus systématique) DBA exclusivement on-premise Profils orientés BI / Data / Power BI Data Engineers sans expertise DBA infrastructure DBA sans expérience significative sur Azure PaaS Moins de 11 ans d’expérience
Mission freelance
Proxy Product Owner
Hexagone Digitale
Publiée le
.NET
API REST
Java
6 mois
Paris, France
Contexte de la mission Au sein d'une équipe dédiée aux Services Clients Digitaux Épargne Retraite, l'objectif est d'offrir des services performants et intuitifs via des espaces digitaux clients. Ces plateformes couvrent un périmètre stratégique incluant la retraite supplémentaire individuelle et collective, ainsi que l'épargne et la prévoyance individuelle. Le Proxy Product Owner (PPO) jouera un rôle clé dans la concrétisation de cette vision en facilitant la collaboration entre les équipes métiers et techniques. La mission — Proxy Product Owner (PPO) Nous recherchons un profil confirmé de Proxy Product Owner sur le domaine de la retraite supplémentaire individuelle et collective. Le PPO agit comme l'intermédiaire stratégique entre le Product Owner (PO), les parties prenantes métier et l'équipe de développement. Il est le bras droit du PO, le déchargeant des tâches opérationnelles, avec une solide capacité à plonger dans les détails techniques pour fluidifier le processus de livraison, garantir l'alignement des développements avec les objectifs métier et la stabilité des solutions en production. Responsabilités principales • Gestion opérationnelle du Backlog Produit ◦ Assister le Product Owner dans la définition, la priorisation et la gestion du Product Backlog. ◦ Rédiger des User Stories claires, concises et testables, en s'appuyant sur les besoins exprimés par le PO et les équipes métiers. ◦ Affiner continuellement le Backlog pour s'assurer de sa pertinence et de son adéquation avec la vision produit. • Interface et Communication Technique ◦ Servir de point de contact privilégié entre les équipes de développement, le PO et les parties prenantes métiers. ◦ Clarifier les besoins et les spécifications auprès de l'équipe de développement tout au long des sprints, en apportant un éclairage technique approfondi si nécessaire. ◦ Participer activement et animer les rituels Agile (refinement, sprint planning, démos, rétrospectives). • Garant de la Qualité Technique et du Fonctionnement en Production (RUN) ◦ Réaliser la recette fonctionnelle et technique des APIs (tests de bout en bout, vérification des contrats d'interface, performance). ◦ Prendre en charge la gestion du RUN, y compris le diagnostic et la résolution des incidents de niveau 1 et 2. ◦ Effectuer des analyses approfondies des dysfonctionnements. ◦ Contribuer à la mise en place de processus de monitoring et d'alerting pour garantir la disponibilité et la performance des services digitaux. ◦ Participer à la conception et au suivi des campagnes de tests fonctionnels et de recette. ◦ Contribuer à la validation des fonctionnalités développées au regard des critères d'acceptation fonctionnels et techniques. Profil recherché • Méthodologies Agile : Maîtrise des principes et des cérémonies Scrum. • Compétences techniques : ◦ Bonne compréhension des architectures systèmes (APIs REST/SOAP, bases de données, microservices, cloud). ◦ Capacité à lire et comprendre du code (Java, .NET, Python, JavaScript) et à utiliser des outils de débogage. ◦ Expérience des outils de test API (Postman, SoapUI) et de monitoring. ◦ Connaissance des bases de données et capacité à exécuter des requêtes SQL de base. ◦ Capacité à analyser des logs techniques. • Compétences relationnelles : Excellentes capacités d'écoute et de communication, aptitude à interagir avec des interlocuteurs variés (métiers, techniques, PO). Capacité à traduire des problématiques techniques en langage métier et inversement. • Rigueur & Organisation : Souci du détail, rigueur dans la rédaction des spécifications, organisation pour gérer le backlog et les incidents de production. • Esprit d'analyse et de synthèse : Capacité à comprendre des besoins complexes et à les traduire en fonctionnalités claires ou en actions correctives. • Outils : Maîtrise de Jira, Confluence et outils techniques pertinents. • Sensibilité forte à l'exploitation (RUN) : Capacité à anticiper les problématiques de production et à y réagir efficacement. • Qualités clés : Autonome, Facilitateur, Leadership — profil confirmé avec une connaissance du Digital indispensable. Livrables attendus • User Stories • Documentation technique et fonctionnelle • Rapports et analyses (compte-rendu d'analyse d'incidents avec root cause) • Plans de tests
Offre d'emploi
DBA SQL Server Expert Azure (N4 / Architecte)
Gentis Recruitment SAS
Publiée le
Azure
12 mois
Hauts-de-Seine, France
🚨 Mission Freelance – DBA SQL Server Expert Azure (N4 / Architecte) ⏳ Mission longue (12 mois renouvelables) 📍 Environnement : Cloud-first Azure (PaaS dominant) 🚫 Candidatures non pertinentes automatiquement refusées ❗ PRÉREQUIS OBLIGATOIRES (SINON NE PAS POSTULER) Minimum 11 ans d’expérience en tant que DBA SQL Server Expertise AVÉRÉE sur Azure SQL PaaS (critère éliminatoire) Anglais courant obligatoire (écrit + oral) Expérience en environnements critiques (production, HA, PRA) 👉 Toute candidature ne respectant pas ces 4 points sera rejetée. 🎯 RESPONSABILITÉS Administration et MCO des bases SQL Server (N1 → N4) Conception et évolution d’architectures SQL Server Azure PaaS Gestion d’environnements critiques : haute disponibilité PRA clusters / failover Accompagnement des équipes (dev / infra / data) Industrialisation et automatisation des déploiements Optimisation des performances et des coûts cloud 🛠 COMPÉTENCES TECHNIQUES OBLIGATOIRES 🔴 SQL Server (niveau expert) Always On / Failover Cluster Instances Performance tuning avancé Capacity planning Troubleshooting complexe (niveau N3/N4) 🔴 Azure (CRITIQUE – cœur du poste) Maîtrise concrète et opérationnelle de : Azure SQL Database Azure SQL Managed Instance Azure Storage / networking Migration vers PaaS Optimisation coûts / performance Azure 👉 Une simple expérience Azure VM ou “exposition cloud” = refus 🔴 DevOps / Automatisation Azure DevOps (pipelines CI/CD) Infrastructure as Code (Terraform ou équivalent) Scripting avancé : PowerShell (obligatoire) Python / Bash (bonus) 🔴 Environnements critiques HA / PRA / DRP Architecture distribuée Gestion incidents majeurs 🧩 COMPÉTENCES FORTEMENT APPRÉCIÉES Multi-SGBD (PostgreSQL, MongoDB, Oracle) Monitoring avancé (Grafana, Prometheus, Zabbix…) Expérience cloud hybride (Azure / AWS / On-prem) FinOps / optimisation des coûts cloud 👤 PROFIL RECHERCHÉ DBA expert / architecte (N4) Capable de : concevoir une architecture challenger les choix techniques intervenir en production critique Autonome, structuré, orienté performance ⚠️ PROFILS NON ADAPTÉS (REFUS DIRECT) DBA uniquement on-prem DBA orienté BI / Data / Power BI Data Engineer sans expertise DBA infra DBA sans Azure PaaS Profils < 11 ans d’expérience 📌 RÉSUMÉ 👉 Nous recherchons un : DBA SQL Server Expert + Azure PaaS + DevOps + Architecture 👉 Si vous n’avez pas déjà travaillé en profondeur sur Azure SQL PaaS, merci de ne pas postuler.
Offre d'emploi
Consultant décisionnel BI H/F
CONSORT GROUP
Publiée le
Jenkins
37k-42k €
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Consultant décisionnel BI H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la Data et la valorisation des données ? Ce poste est fait pour vous. En tant que Consultant décisionnel BI, vous êtes responsable de la conception et de l’évolution des solutions de reporting ainsi que de la valorisation des données au sein de notre écosystème décisionnel : Vous intervenez dans un contexte applicatif mature (plus de 6 ans), actuellement en phase de refonte des dashboards afin d’améliorer l’expérience utilisateur et la pertinence des analyses. Vous évoluez au sein d’une équipe Agile d’une dizaine de personnes (Chef de projet / Scrum Master, PO, développeurs BI, DevOps, Lead Tech). Côté build : Recueillir, analyser et challenger les besoins fonctionnels et techniques des métiers Identifier et exploiter les sources de données pertinentes Concevoir et faire évoluer l’architecture décisionnelle Modéliser et enrichir les Datawarehouses et Datamarts Développer les processus d’intégration de données (ETL) Concevoir, améliorer et refondre des dashboards orientés utilisateurs Produire des rapports et tableaux de bord fiables, lisibles et performants Accompagner les métiers dans la compréhension et l’exploitation des données Côté run : Garantir la qualité, la performance et la fiabilité des livrables Tester et valider les développements (recette technique et fonctionnelle) Optimiser les performances des traitements et des dashboards Participer aux cérémonies Agile (daily, sprint planning, rétrospective…) Assurer le support aux utilisateurs et la prise en compte des retours métiers Maintenir et faire évoluer la documentation applicative Contribuer à l’amélioration continue de la plateforme décisionnelle C’est votre parcours Vous avez au moins 2 ans d’expérience dans des environnements Data exigeants. Vous aimez analyser, structurer et valoriser la donnée tout en restant proche des enjeux métiers. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Maîtrise des environnements BI : modélisation de données, ETL, reporting Solide expérience sur des outils de datavisualisation (Tableau et/ou Power BI) Bonne maîtrise des bases de données relationnelles (Oracle, PostgreSQL) Expérience sur Informatica ou équivalent Connaissances en langages de programmation (notamment Python – 2 ans minimum) Familiarité avec les outils DevOps et d’intégration continue (Git, Jenkins, Ansible) Connaissances en streaming de données (Kafka, RabbitMQ) appréciées Compréhension des architectures décisionnelles complexes Maîtrise des principes Agile C’est votre manière de faire équipe : Esprit d’analyse et de synthèse Autonomie et rigueur Force de proposition et capacité à challenger l’existant Excellent relationnel et sens du service Capacité à travailler en équipe Agile Adaptabilité et proactivité C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : Hybride Salaire : De 37000 € à 42000 € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Offre d'emploi
Analyste fonctionnel LBC / AML
VISIAN
Publiée le
AML (Anti-Money Laundering)
LCB-FT
Python
1 an
40k-45k €
190-450 €
Paris, France
Descriptif du poste Dans le cadre du programme de surveillance LBC (Lutte contre le blanchiment de capitaux – AML Monitoring), la Conformité déploie un outil logiciel sur l'ensemble des sites et lignes métiers de la Banque. Une plateforme interne, axée sur la technologie, conçue pour rationaliser et améliorer l'efficacité ainsi que la couverture des risques liés aux enquêtes LBC, à travers les Régions et Lignes métiers (Correspondent Banking, Global Markets, Global Banking, Securities Services). La solution a également été pensée pour être indépendante des technologies de détection ou de données environnantes. Ce projet requiert des ressources IT spécialisées en LBC afin de construire une plateforme informatique « state of the art » permettant un déploiement itératif des fonctionnalités destinées à la gestion efficace des alertes de blanchiment, intégrant des composants d'intelligence artificielle (ou prêts à accueillir de l'IA).
Mission freelance
[SCH] Administrateur Azure / Microsoft Fabric / Power BI - 1410
ISUPPLIER
Publiée le
10 mois
400-500 €
Saint-Denis, Île-de-France
Dans le cadre de la construction de la nouvelle BI d’entreprise, notre client recherche un Administrateur Azure / Microsoft Fabric afin de participer à la mise en place d’une nouvelle offre de Self-BI reposant sur Power BI, Microsoft Fabric et des Gateways On-Premises. Le consultant interviendra à la fois sur la co-construction de l’architecture avec les équipes internes et sur son implémentation, dans un environnement hybride mêlant cloud Azure et infrastructures on-premises. La mission nécessite une forte maîtrise des sujets d’administration, de sécurité, de DataOps et d’automatisation, ainsi qu’une bonne compréhension des enjeux de performance, de migration BI et de gouvernance. Missions : -Co-construire l’architecture BI cible avec les équipes internes -Assurer le build et l’administration de l’environnement Microsoft Fabric / Power BI / Azure -Configurer et administrer les capacités Fabric et les Workspaces -Gérer les sujets de tenant administration, sécurité, identités et service principals -Mettre en place et administrer les Gateways On-Premises -Gérer les Azure KeyVaults et les secrets techniques -Mettre en œuvre les pratiques DevOps / DataOps (CI/CD, automatisation, industrialisation) -Automatiser les tâches via API, PowerShell ou Python -Participer aux sujets de monitoring, performance, incidents et optimisation des coûts (FinOps) -Accompagner les problématiques de migration BI et d’évolution de la plateforme -Contribuer à l’industrialisation de la plateforme via Terraform et Azure DevOps -Collaborer avec les équipes techniques sur les sujets dbt, Airflow et intégration data Profil attendu : -Expertise confirmée sur Microsoft Fabric, Power BI et Azure -Expérience en design & build d’architectures data / BI -Bonne maîtrise des environnements hybrides cloud / on-premises -Compétences solides en administration, sécurité, identités et gouvernance -Expérience avec Azure DevOps, Terraform et les pratiques IaC -Bonne compréhension des enjeux DataOps / DevOps / CI-CD -Capacité à automatiser les tâches via PowerShell, Python ou API -Connaissance de dbt, Airflow et migration BI appréciée -Sensibilité aux problématiques de FinOps, monitoring et performance -Autonomie, rigueur et capacité à travailler en co-construction avec les équipes
Mission freelance
Expert Linux ET Stockage
AVALIANCE
Publiée le
Administration linux
Linux
Python
3 ans
400-700 €
Paris, France
Vous rejoindrez une équipe en charge des services infrastructure "Managed compute", "Development & Services" et "Cloud”. Au sein de notre équipe Infrastructure, vous serez le garant de production et du maintien en condition opérationnelle de nos systèmes : •Référent sur la partie opérationnelle de notre périmètre (Daily, Gestion des priorités, compréhension des demandes utilisateurs) •MCO de notre parc de stockage entreprise (SAN + NAS) •MCO sur notre parc de virtualisation vmware •Déploiement de serveurs ou vm Linux
Offre d'emploi
Développeur Flux Stambia / Semarchy xDI / Kafka / Springboot / MongoDB - H/F - Métropole Lilloise
HELPLINE
Publiée le
Apache Kafka
Mongodb
Semarchy
3 ans
38k-45k €
400-550 €
Lille, Hauts-de-France
Description du poste Dans le cadre du renforcement de nos activités Data Engineering pour un leader international basé dans le Nord, nous recherchons un Développeur flux Stambia / Semarchy xDI confirmé . Kafka, Springboot & MongoDB appréciés. Ce que nous allons accomplir ensemble : Au sein d'une équipe expérimentée, vous interviendrez sur des enjeux variés de BUILD (conception, création) et de RUN (exploitation, optimisation) sur des flux de données opérationnels stratégiques. Vos missions au quotidien : Analyse & Conception : Analyser les besoins d'intégration de données et concevoir des flux complexes via Stambia / Semarchy xDI. Développement : Développer les flux en appliquant les meilleures pratiques et produire des scripts (Python, Shell, etc.) pour personnaliser les traitements. Qualité & Tests : Garantir la robustesse et la non-régression des développements (tests de performance, fiabilité). Documentation : Réaliser les spécifications techniques et partager vos connaissances via Confluence. Maintenance & Run : Assurer le monitoring, le support et participer aux astreintes pour garantir la disponibilité des flux en production. Qualifications Ce poste est fait pour vous si : Vous justifiez d'une expérience confirmée (3 à 5 ans) en développement de flux avec Stambia / Semarchy xDI . Vous maîtrisez les concepts ETL/ELT, le langage SQL et la modélisation de données. Vous avez une expérience pratique en scripting (Python, Beanshell, Shell ou équivalent). Vous êtes familier avec les environnements collaboratifs : Git/Gitlab, CI/CD, Jira . Vous avez une bonne connaissance des architectures d'échange (API REST, Batch, Streaming/Kafka). Votre sens du service, votre capacité à travailler en équipe et votre communication claire sont vos atouts majeurs.
Offre d'emploi
ML Ingénieur - Google Cloud
VISIAN
Publiée le
CI/CD
MLOps
Île-de-France, France
Contexte Afin d’améliorer la personnalisation de l’expérience utilisateurs, une équipe dédiée est créée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. La stack technique est basée sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. Missions Créer un premier cas d’usage en lien avec la personnalisation de l’expérience utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances En interaction avec les membres de l’équipe, la prestation consiste à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l’évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capables de répondre aux besoins et au volume de données
Offre d'emploi
DBA- Administration de Base de données (Oracle, SQL server, PostgreSQL…)
KEONI CONSULTING
Publiée le
Mongodb
Python
Terraform
18 mois
20k-60k €
100-500 €
Paris, France
Conteste Gestion et administration des systèmes de gestion de données (SGBD) de l’entreprise, et assurance de la cohérence, la qualité, la sécurité et l’intégrité des base de données. MISSIONS - Veille en permanence à la disponibilité, la performance et la sécurité des systèmes en mettant en œuvre des procédures de sauvegarde et de restauration, en gérant les droits d’accès et en garantissant l’intégrité des données. - Optimisation et tuning des bases afin d’améliorer l’efficacité des traitements, ainsi que l’accompagnement des équipes projets et applicatives lors des phases de conception, de migration ou d’évolution. - Industrialisation des tâches récurrentes par l’automatisation et le scripting, production de la documentation nécessaire et assurance du reporting régulier sur l’état des systèmes. - Réalisation des choix d'implémentation des bases de données. - Création des bases en liaison avec l’administrateur système et les chefs de projets concernés. - Mise en œuvre des logiciels de gestion de bases de données. - Réalisation de l'adaptation, l'administration et la maintenance de ces logiciels. - Mise en exploitation et en gestion les serveurs de données (administration, automatisation, développement des procédures, sécurité et autorisation d’accès, optimisation des traitements et des requêtes…). - Création à la demande des domaines ou de l’exploitation, les outils spécifiques d’aide à l’exploitation. Exploitation : - Assurer l’intégrité des bases de données existantes en garantissant la sécurité physique (procédures de sauvegarde, restauration, journalisation, démarrage après incidents…) et logique (confidentialité, accès). - Mettre en œuvre les outils de surveillance. - Régler les paramètres des bases de données pour une utilisation optimale. Support : - Assister les utilisateurs (formation, requêtes techniques…). - Effectuer un support technique de second niveau pour l’ensemble des bases de données. - Possèder un rôle de correspondant technique entre les chefs de projets et le support technique des éditeurs. Etudes et contrôles : - Effectuer une veille technologique afin de proposer des améliorations et anticiper les évolutions des solutions de gestion de bases de données. - Suivre et contrôler les évolutions de version des bases existantes et progiciels retenus par l’entreprise. - Tester, valider, pour les aspects techniques, tous les logiciels et progiciels. - Définir les normes et standards d’utilisation et d’exploitation des SGBD. Livrables • Bases de données avec des temps d'accès raisonnables. • Documentation sur la structure de la base et les procédures d'exploitation et de production.
Mission freelance
Applied Scientist (IA)
Celexio
Publiée le
Amazon SageMaker
Apache Airflow
AWS Cloud
6 mois
400-670 €
Paris, France
En tant qu'Applied Scientist, vous êtes la force motrice de la phase de recherche et de développement des modèles d'IA, en assurant l'alignement entre les avancées technologiques et les objectifs stratégiques de l'entreprise. Responsabilités clés 1. Recherche et développement de modèles IA/ML (Phase de recherche) : Mener la recherche, l'évaluation et l'expérimentation de modèles d'IA et d'apprentissage automatique (par exemple, Deep Learning pour la recommandation, Gen-AI, NLP/Vision pour la recherche) afin de résoudre des problèmes commerciaux complexes. Sélectionner les sources de données appropriées et déterminer les indicateurs clés à suivre et à optimiser Développer des prototypes et prouver la faisabilité ainsi que l'impact attendu des concepts avant leur industrialisation. 2. Collaboration et industrialisation (Phase de déploiement) : Travailler en étroite collaboration avec les ingénieurs en apprentissage automatique (MLE) pour garantir que les modèles développés sont robustes, évolutifs et prêts pour le déploiement en production. Contribuer activement à la phase de déploiement et d'intégration des modèles dans l'architecture technique (Snowflake, AWS). 3. Suivi et amélioration continue : Participer au suivi des modèles en production, en se concentrant sur la détection des dérives (drift) et la dégradation des performances. Concevoir et proposer des itérations (tests A/B) pour optimiser en continu les performances des produits d'IA. 4. Expertise et transmission des connaissances : Assurer une veille technologique constante sur les avancées en IA/ML. Documenter et partager les connaissances et les meilleures pratiques au sein de l'équipe et avec les autres parties prenantes (Chefs de produit, Métier).
Mission freelance
DEVELOPPEUR(SE) IA GEN
Les Filles et les Garçons de la Tech
Publiée le
Azure
Copilot
IA Générative
12 mois
400-560 €
Île-de-France, France
Votre rôle principal consistera à assurer l'assistance technique, ainsi que la maintenance corrective et évolutive du portail IA interne. Vos missions s'articuleront autour des axes suivants : Maintenance du portail IA (Front et Back) : Améliorer l'expérience utilisateur (IHM), mettre à jour le catalogue d'assistants existants, gérer la création de nouveaux assistants avec contrôle d'accès, et faire évoluer les mécanismes d'exposition en API et de suivi de la consommation IA. Conception et optimisation : Réaliser des assistants IA préconfigurés selon les besoins métiers, optimiser l'ingestion de documents (bases de connaissances) pour améliorer la qualité des réponses, et affiner les prompts utilisateurs pour augmenter la précision tout en maîtrisant les coûts. Support et accompagnement : Prendre en charge les tickets d'incidents (support de niveau 1 et 2), analyser les dysfonctionnements via les logs applicatifs, et mettre à jour la FAQ ainsi que les parcours d'accueil. Vulgarisation : Une grande partie des utilisateurs étant non technique, vous devrez les accompagner dans la réalisation de leurs prompts et rédiger de la documentation claire et adaptée.
Mission freelance
IT Support Analyst
Keypeople Consulting
Publiée le
CI/CD
Datadog
LUnix
6 mois
400-470 €
Île-de-France, France
IT Support Analyst – Paris (H/F) Nous recherchons un IT Support Analyst passionné pour rejoindre une équipe IT dynamique spécialisée dans les systèmes de compensation et de gestion des risques sur les marchés financiers. Votre mission Vous assurerez le support technique de niveau 2 pour les applications critiques, en garantissant la continuité et la qualité des services métiers. Vos responsabilités incluent : Assurer le support technique de niveau 2 et le monitoring de production Construire et améliorer les processus opérationnels (documentation, runbooks, procédures) Coordonner la gestion des incidents majeurs et des changements Communiquer efficacement avec les équipes métiers et techniques Participer à un roulement d’astreinte pour couvrir les heures de production Profil recherché Solide maîtrise de SQL , Unix et bonnes compétences en Python Expérience avec ServiceNow , Datadog et idéalement des pratiques CI/CD Capacité à automatiser les tâches et améliorer l’efficacité opérationnelle Excellente organisation, esprit proactif et capacité à escalader rapidement les incidents Très bon niveau de français et d’anglais à l’écrit et à l’oral Compréhension des systèmes d’information financiers et intérêt pour l’apprentissage continu Autonomie, sens du relationnel et aptitude à travailler en équipe multiculturelle 📩 Si vous êtes intéressé(e) ou si vous connaissez une personne susceptible de l’être, n’hésitez pas à me contacter pour plus d’informations. Cordialement,
Offre d'emploi
INGENIEUR ACQUISITION & TRAITEMENT DE DONNEES
KEONI CONSULTING
Publiée le
Jupyter Notebook
Open Source
Python
18 mois
20k-60k €
100-400 €
Évry, Île-de-France
Contexte : Le candidat intervient au sein d’équipes dans des contextes très variés tel que l’optimisation opérationnelle pour des applications de maintenance préventive, optimisation des processus d’acquisition et de contrôle ou le support aux lignes de lumière pour traiter les données expérimentales. MISSIONS Activités principales : • Faire l’analyse technique et la conception du ou des logiciels à réaliser. • Réaliser les logiciels dans le/les langage(s) le plus approprié. • Concevoir et implémenter des procédures de test. • Déployer les logiciels (paquets). • Rédiger les spécifications, documentations techniques et utilisateurs. LIVRABLES Analyse technique et conception (spécifications techniques, architecture logicielle) ; Code source des logiciels développés ; Procédures et scripts de test ; Packages déployables ; Documentation technique et utilisa teurs Profil & Exigences techniques : • Maîtrise approfondie des concepts de traitements de données scientifiques : • Développement et implémentation d'algorithmes pour l'analyse d'images scientifiques (ex: détection de features, segmentation, reconstruction tomographique, analyse de diffraction/diffusion). • Application et développement de méthodes de calculs statistiques (ex: ajustement de modèles, analyse d'erreurs, tests d'hypothèses, classification) et mathématiques (ex: transformées de Fourier, algèbre linéaire, optimisation numérique) appliquées aux données expérimentales. • Compréhension des formats de données scientifiques (HDF5, NeXus, TIFF, etc.) et des bibliothèques associées. • Expérience dans le séquencement et l’orchestration de traitements de données (Apache Airflow, etc.) • Expérience dans la gestion et le traitement de volumes importants de données (Big Data) et dans l'optimisation des pipelines de traitement. • Connaissance et utilisation d'outils de réduction et d’analyse de données du monde open source : • ImageJ/Fiji : Pour le traitement et l'analyse d'images. • Python/Jupyter Notebooks/JupyterLab : • Pour l'analyse interactive, la visualisation et le prototypage. • Bibliothèques spécialisées : Connaissance de bibliothèques dédiées à des techniques d'analyse spécifiques (ex: SPEC, Lima, Bliss, Sardana, TANGO Controls). • Optionnellement, mais fortement apprécié, maîtriser les méthodes de parallélisation de codes pour le calcul intensif (HPC) : • Parallélisation multi-threading (OpenMP). • Calcul distribué (OpenMPI, ZeroMQ, gRPC). • Programmation sur GPU (CUDA/OpenCL, OpenACC). • Compréhension des architectures de calcul parallèle et des problématiques de scalabilité.
Offre d'emploi
Architecte Logiciel - DevSecOps
NEO SOFT SERVICES
Publiée le
Ansible
Architecture
Argo CD
1 an
40k-60k €
400-550 €
35000, Rennes, Bretagne
Vous intervenez en tant que référent technique et garant de la qualité logicielle , au cœur de la conception et de l’évolution des solutions cloud destinées à des clients grands comptes et/ou à forte dimension régalienne . À ce titre, vous jouez un rôle clé dans la définition et la mise en œuvre des standards techniques , des processus de développement et des référentiels de bonnes pratiques visant à assurer la cohérence, la robustesse et la pérennité des solutions cloud, aujourd’hui comme demain. Votre expertise vous permet d’intervenir dès les phases amont des projets, en contribuant activement à la définition des architectures cibles et aux choix technologiques structurants. Vous veillez à l’alignement des solutions avec les enjeux stratégiques, fonctionnels et réglementaires des clients, tout en garantissant un haut niveau de qualité, de performance, de sécurité et de maintenabilité . En tant que référent, vous accompagnez les équipes dans l’appropriation des standards définis et assurez leur bonne application dans la durée. Vous êtes également force de proposition pour améliorer en continu les pratiques existantes. Dans un contexte cloud en perpétuelle évolution, vous contribuez à l’intégration de nouvelles approches telles que l’ automatisation , l’ Infrastructure as Code , l’ observabilité ou encore la sécurité by design . Vous participez à la mise en place de processus qualité robustes incluant les revues de code, les audits d’architecture, les stratégies de tests et les contrôles de conformité. Votre rôle consiste aussi à identifier les risques techniques, à challenger les choix existants et à proposer des plans d’actions pragmatiques afin de garantir la fiabilité des solutions déployées. Vous évoluez dans un environnement critique et d’envergure , où les enjeux de disponibilité, de résilience et de continuité de service sont majeurs. Les plateformes que vous encadrez doivent répondre à des exigences élevées en matière de sécurité des données , de conformité réglementaire et de stabilité opérationnelle . Cette dimension critique nécessite une grande rigueur, une forte capacité d’analyse et une excellente maîtrise des environnements complexes et fortement contraints. Le contexte de travail est pluridisciplinaire et à dimension internationale . Vous collaborez avec des équipes aux profils variés : développeurs, architectes, experts sécurité, équipes d’exploitation, responsables produits et parties prenantes métier. Vous jouez un rôle de pivot technique , facilitant la communication entre les différents acteurs et contribuant à une compréhension partagée des enjeux et des solutions. Votre capacité à vulgariser des sujets complexes et à fédérer autour de standards communs est essentielle à la réussite des projets. Enfin, vous intervenez dans un environnement international, impliquant des échanges réguliers avec des équipes et partenaires situés dans différents pays. À l’aise dans des contextes multiculturels, vous adaptez votre communication et votre posture aux interlocuteurs. Par votre leadership technique , votre sens des responsabilités et votre vision long terme, vous contribuez durablement à la construction de solutions cloud fiables, évolutives et alignées avec les enjeux stratégiques des clients .
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
944 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois