Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 784 résultats.
Mission freelance
Site Reliability Engineer (SRE)
Okara
Publiée le
Datadog
DNS
Github
6 mois
450-650 €
Lille, Hauts-de-France
Le Contexte : Pour le compte de l'un de nos clients, une scale-up en pleine croissance dont la plateforme gère des flux critiques à haute disponibilité, nous recherchons un(e) Site Reliability Engineer (SRE) . Vous intégrerez l’équipe Opérations , véritable tour de contrôle garante de la fiabilité, de la sécurité et de la performance des services déployés à l'échelle internationale. Les Enjeux du Poste : Votre rôle est à la croisée du développement et de l'exploitation système. Votre mission principale : transformer les opérations manuelles en ingénierie automatisée. Fiabilité & Scalabilité : Piloter la montée en charge des systèmes et garantir un uptime maximal. Automatisation & IA : Assurer le suivi des incidents avec une volonté constante d'automatiser la résolution (via software ou IA). Gestion d'Incidents : Analyser les root causes , mener les post-mortems et implémenter les actions correctives durables. Production Readiness : Collaborer avec les équipes Dev et Sécurité pour valider la mise en production des nouvelles fonctionnalités. Observabilité : Optimiser la supervision (Datadog) pour passer d'un mode réactif à un mode proactif. Profil Recherché (Confirmé/Senior) : Nous recherchons un profil ayant idéalement 3 à 5 ans d'expérience sur des environnements de production critiques. Rigueur chirurgicale : Vous suivez vos sujets de bout en bout, sans laisser de zones d'ombre. Sang-froid : Vous savez prioriser et communiquer avec clarté, même en période de pic d'activité ou d'incident. Esprit "Engineering" : Vous avez une sainte horreur des tâches manuelles répétitives et cherchez toujours à coder une solution pérenne. Vulgarisation : Vous savez traduire des problématiques complexes pour des interlocuteurs non-techniques. Stack Technique : Cloud : GCP (Google Cloud Platform) Containerisation : Kubernetes (expert), Linux Code : Python (Software Engineering & Scripting) IaC : Terraform Observabilité : Datadog CI/CD : GitHub, GitHub Actions Réseaux & Sécurité : VPC, DNS, Loadbalancing, WAF, DDoS Data : SQL & NoSQL
Mission freelance
CTO / PO Tech (Management de transition – mi-temps)
Teaminside
Publiée le
Java
PostgreSQL
React
1 an
400-550 €
Île-de-France, France
Contexte de la mission Dans le cadre de sa structuration et de son passage à l’échelle, une entreprise technologique spécialisée dans les données de santé recherche un consultant senior pour intervenir en management de transition sur un rôle hybride de CTO / PO Tech . L’organisation conçoit et opère des solutions numériques à fort impact clinique , utilisées au quotidien par des professionnels de santé et intégrées dans des parcours de soins réels (suivi patient, interopérabilité avec les systèmes hospitaliers, exploitation de données cliniques complexes). La mission s’inscrit dans un moment clé : remplacement progressif du CTO en poste, structuration de la gouvernance technique, accompagnement du virage IA de la plateforme, préparation d’une montée en charge significative des équipes (croissance forte attendue à 2 ans). La mission est prévue à mi-temps , avec une forte autonomie , un périmètre stratégique clair et un impact direct sur les choix structurants de l’entreprise . Objectifs de la mission Le consultant interviendra comme référent technique et produit , avec pour objectifs principaux : Assurer le pilotage technique global de la plateforme et sécuriser les choix d’architecture. Aligner les décisions technologiques avec les enjeux business, réglementaires et cliniques . Structurer le rôle de PO Tech au sein des équipes de développement. Accompagner la transformation vers des usages IA / data avancés . Créer un cadre de delivery robuste et scalable. Responsabilités principales Pilotage technique & architecture Superviser le développement technique et l’évolution de l’architecture. Garantir la cohérence des flux applicatifs et des choix d’urbanisation. Être l’interlocuteur technique de l’hébergeur cloud et challenger les dispositifs existants. Apporter une expertise d’architecture orientée données de santé (flux, qualité, sécurité). Rôle de PO Tech / Delivery Animer les cérémonies agiles (sprints, refinements, priorisation). Rédiger et structurer les user stories et tickets techniques. Challenger les estimations et sécuriser les engagements de delivery. Rédiger des spécifications techniques claires et exploitables. Contribution opérationnelle Intervenir ponctuellement dans le code pour accompagner les développeurs si nécessaire. Être un appui technique de haut niveau pour une équipe réduite mais expérimentée. Travailler étroitement avec les profils data et IA. Data & IA Accompagner la structuration du data catalogue (actuellement non industrialisé). Participer à la mise en place d’une gestion automatisée et fiable de la donnée. Être force de proposition sur les usages IA (automatisation, exploitation de données, productivité). Collaborer avec un futur responsable data / Chief Data Officer. Environnement technique Langages & frameworks : Java, NodeJS, VueJS, React, Python Base de données : PostgreSQL Data : données cliniques complexes, formats JSON, volumétrie significative Outils : Figma (UX / conception) Retool (exploitation et manipulation de la donnée) Cloud / Hébergement : environnement dédié nécessitant un échange direct avec l’hébergeur Modalités de la mission Type : Management de transition / Conseil Rythme : Mi-temps Démarrage : ASAP (idéalement septembre / début octobre) Durée : Mission longue avec perspective d’accompagnement dans la durée Contexte : Forte exposition stratégique, interaction directe avec la direction opérationnelle Pourquoi cette mission est attractive Mission à fort impact sociétal , directement liée à l’amélioration des parcours de soins. Rôle clé dans une phase de transformation structurante . Liberté de proposition sur les choix techniques, data et IA. Positionnement stratégique sans contrainte d’un rôle full-time. Environnement exigeant, mais humain, avec une vraie reconnaissance de l’expertise apportée.
Mission freelance
Lead Tech CRM/CMS & Scrum Master (H/F)
Comet
Publiée le
Angular
API Platform
CI/CD
180 jours
400-500 €
Paris, France
Garantir la cohérence technique du socle CRM/CMS et la qualité d’exécution du projet. Assurer le rôle de Scrum Master côté développement , en coordination avec le Delivery Manager. 🛠️ Activités principales : Définir et garantir les standards techniques et l’ architecture du socle CRM/CMS Réaliser les revues de conception et porter les décisions d’architecture Accompagner et encadrer l’équipe de développement Animer les rituels Scrum côté développement Assurer la cohérence des conventions API et du découpage modulaire Définir les interfaces et contrats avec un Hub IA Mettre en place et suivre les quality gates , SLIs et indicateurs de performance Contribuer à la sécurité applicative et à la qualité globale du produit
Offre d'emploi
CONSULTANT(E) COACH SÉCURITÉ PROJET
UMANTIC
Publiée le
70k-90k €
Paris
CONSULTANT(E) COACH SÉCURITÉ PROJET Mission de prestation | Île-de-France | N4 Senior / Expert * * * ? Informations clés | ---|--- Localisation | Île-de-France — déplacements France & international Expérience requise | 6 à 9 ans minimum (profil Expert > 9 ans apprécié) * * * ? Contexte & Objectif Dans le cadre du renforcement de sa démarche "Security by Design", notre client — un grand groupe opérant dans un secteur hautement réglementé — recherche un(e) consultant(e) expérimenté(e) pour assurer le coaching sécurité de ses projets métier et infrastructure. Le/la candidat(e) retenu(e) sera intégré(e) au sein de la Direction des Systèmes d'Information, en appui direct des équipes projet, infrastructure et sécurité (LOD1 & LOD2). * * * ? Missions & Responsabilités * Accompagner et coacher les chefs de projet et équipes IT dans l'intégration de la sécurité dès la conception (Security by Design) * Réaliser des évaluations et des validations de sécurité des architectures techniques * Conduire des analyses de risques selon les standards ISO 27005 et/ou EBIOS RM * Formaliser des recommandations de sécurité avec priorisation et plan d'action * Étudier et challenger les architectures techniques sur leur niveau de sécurité * Présenter des synthèses aux comités de gouvernance (CDG, COSTRAT, comités stratégiques) * Travailler en étroite collaboration avec les équipes IT, infrastructure, support et sécurité * Assurer le suivi des projets du cahier des charges à la mise en production * * * ?? Compétences Techniques Impératifs : * Démarche d'intégration sécurité dans les projets — Expert * Analyse de sécurité et évaluation du niveau de sécurité d'un SI — Expert * Étude d'architecture sécurité (3-tiers, segmentation réseau, sécurité API, relais de sécurité) — Confirmé * Analyse de risques ISO 27005 / EBIOS RM — Expert * Culture transverse des domaines de sécurité : * Sécurité Réseau — Firewall, IPS/IDS * Gestion d'identité — IAM, Active Directory, LDAP Sécurité système — Scan de vulnérabilités, anti-malware, EDR, Hardening Sécurité Cloud Public — Security Policies, CSPM, Microsoft 365 Sécurité IA & DevSecOps Bastion & réseaux d'administration Data Protection — Accès BDD, DLP
Offre d'emploi
Architecte SI senior H/F
HAYS France
Publiée le
80k-90k €
75001, France
Au sein de la Direction des Systèmes d'Information (DSI) et rattaché au département PMO, vous jouerez un rôle clé dans la définition et la mise en oeuvre de l'architecture des systèmes d'information, dans le cadre d'un CDI. Vos missions seront : Stratégie Architecturale : Élaborer et implémenter une stratégie pour un paysage IT moderne et performant, incluant des systèmes distribués et l'intégration d'intelligence artificielle. Alignement Stratégique : Adapter les technologies et les systèmes d'information aux objectifs de l'entreprise et aux orientations de l'actionnaire, en exploitant les capacités du cloud Innovation : Accélérer la transformation numérique en adoptant des technologies de rupture pour répondre aux besoins futurs. Vision Architecturale : Promouvoir une architecture globale centrée sur la performance, l'automatisation et la gestion avancée des données. Activités principales 1. Vision et Stratégie : 2. Conception Applicative : 3. Gestion du Cycle de Vie des Applications : 4. Veille Technologique : 5. Collaboration et Conseil : 6. Contribution au management de la Direction Informatique
Mission freelance
🎯 QA Engineer / Assurance Qualité Logicielle (F/H)
CELAD
Publiée le
1 an
320-350 €
Toulouse, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Toulouse - Au moins 3 ans d’expérience Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e QA Engineer pour intervenir chez un de nos clients, dans le secteur de l’environnement. Contribuez à livrer des produits fiables, plus vite, et du premier coup. Notre client renforce son dispositif d’Assurance Qualité Logicielle. L’objectif est simple et ambitieux : accélérer les livraisons tout en augmentant le niveau d’exigence qualité. Vous interviendrez au cœur des équipes qui développent et valident les produits applicatifs, avec un rôle clé : structurer, mesurer, sécuriser et améliorer en continu. Ce que vous allez faire concrètement Votre mission s’organise en deux temps. Contexte : Voici un aperçu détaillé de vos missions : Phase 1 – Structurer, mesurer et sécuriser Piloter la qualité par la donnée *Vous construisez et exploitez les tableaux de bord QA : *Taux de couverture des tests *Nombre de tests automatiques *Nombre d’anomalies *Respect des jalons *Satisfaction client Vous vous appuyez notamment sur : SonarQube, Allure, Jira et Grafana. Votre rôle ne se limite pas à produire des KPI : vous les analysez et en tirez des recommandations actionnables. Contrôler la qualité du code *Analyse régulière des résultats issus de SonarQube *Identification des écarts *Accompagnement des équipes de développement pour leur correction *Vous êtes un partenaire exigeant, pas un contrôleur isolé. Superviser la qualité des tests *Analyse des résultats des tests automatiques (Allure) *Suivi des tests manuels (Squash) *Analyse de la couverture, du taux de réussite, du niveau d’automatisation *Vous veillez à ce que la stratégie de tests soit cohérente avec les enjeux produit. Gérer les non-conformités *Enregistrement, suivi et clôture des anomalies dans Jira *Traçabilité claire et rigoureuse *Communication fluide avec les parties prenantes Phase 2 – Améliorer et innover Contrôler la documentation produit Vous vérifiez la mise à jour des livrables (spécifications, guides utilisateurs, etc.) et garantissez leur cohérence avec les versions livrées. Contribuer à l’amélioration continue *Participation active aux rituels Agile *Propositions d’actions concrètes pour réduire les délais de livraison *Contribution à l’augmentation de la qualité perçue *Vous êtes force de proposition, pas simple observateur. Introduire l’IA dans la QA *Vous explorez et mettez en œuvre des cas d’usage IA pour : *Classification automatique des anomalies *Optimisation des analyses qualité *Accélération des cycles de validation Nous cherchons quelqu’un qui ne se contente pas d’appliquer un cadre, mais qui le fait évoluer.
Offre d'emploi
ALTERNANCE - Data Scientist H/F
█ █ █ █ █ █ █
Publiée le
Big Data
Cassandra
Deep Learning
Boulogne-Billancourt, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Data Engineer GCP (H/F)
CELAD
Publiée le
1 an
400-440 €
Nantes, Pays de la Loire
CDI / Portage / Freelance - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
Mission freelance
Data Architect Databricks Nantes/pa
WorldWide People
Publiée le
Databricks
12 mois
Nantes, Pays de la Loire
Data Architect Databricks Nantes Compétences Techniques •Maîtrise des bases de données relationnelles et non relationnelles (ex : SQL, NoSQL, …). •Compétence en modélisation de données et en conception de schémas. •Connaissances des pratiques d’architecture solution •Expertise dans des outils et technologies Big Data (Databricks). •Connaissance des environnements cloud (ex : Azure…). Prestation de Data Architect •Il définit l’architecture Data pour son périmètre, en fonction des besoins métier, en tenant compte de l’architecture du SI, des règles de gouvernance Data et plus globalement des standards et des communs définis au niveau de son organisation. •Sur la partie Data, il définit les normes et standards en matière de disponibilité, d’intégrité, de confidentialité et de traçabilité dans l'objectif de maximiser la valeur que l’organisation tire de ces données. •C’est lui qui pilote la mise en oeuvre des principes d’architecture Data dans le SI et garantit sa conformité, sa performance, sa pérennité, son adéquation aux besoins métier ainsi que l’optimisation du cycle de vie de la donnée. •Le Data Architect préconise et valide les principes de modélisation des données pour qu’ils soient adaptés aux usages de façon durable. •Il organise la gestion des référentiels Data et facilite leur maintenance. Tâches : •Contribue à l’élaboration de la stratégie Data de la donnée alignée avec la stratégie business et en cohérence avec la roadmap de l’Architecte d’entreprise. •Contribue aux choix technologiques qui portent le cycle de vie de la donnée. •Assure une veille technologique active sur les solutions innovantes et particulièrement en matière de Data et d’IA. •Définit les règles, normes et standards en matière de stockage et de traitement de la donnée. •Coordonne les travaux d’architecture Data et en assure la gouvernance. •Assure la cohérence du modèle Data tout au long du cycle de vie des projets. •Répond aux exigences réglementaires liées à la Data. Compétences Techniques •Maîtrise des bases de données relationnelles et non relationnelles (ex : SQL, NoSQL, …). •Compétence en modélisation de données et en conception de schémas. •Connaissances des pratiques d’architecture solution •Expertise dans des outils et technologies Big Data (Databricks). •Connaissance des environnements cloud (ex : Azure…).
Offre d'emploi
Data engineer
SKYLLIT
Publiée le
Docker
Github
Google Cloud Platform (GCP)
1 an
Île-de-France, France
Profil Data Engineer/Data Analyst Senior pour gérer des applications liées au métier de la CDMO (Chief Digital & Marketing Office), dans une équipe dynamique aux profils variés (Tech Lead, Dev Full Stack, Data Scientist, Product Owner, QA...) Une des applications One Creative consiste à offrir une vision complète de la performance & l'optimisation de chaque asset media, de la stratégie globale à l'activation locale. o Développer et maintenir les data pipelines de : · Sourcing des données (Datalake BigQuery) · Téléchargement d'assets vidéo via API social media platforms · Analyse créative (application interne Augmented DAM) · Automatisation des processus IA (embedding, clustering) o Transformer la donnée brute du Datalake en tables optimisées pour l'application One Creative (fusion KPIs de performance, métadonnées, données créatives...) o Optimiser le déploiement du backend sur GCP o Améliorer la code base en ajoutant des tests unitaires et d'intégration sur le code Python o Développer une première brique de monitoring des données récupérées (assets, KPIs) o Moderniser les briques techniques (thumbnail, product-detection, encoder) avec des approches plus modernes et optimisées o Optimiser la chaîne CI/CD o Travailler sur la migration du backend Augmented DAM (autre application interne utilisée en tant que service de One Creative) o Développer les requêtes SQL pour sourcer les données dans les tables du Datalake, sur la base des inputs du Data Business Owner o Documenter les données récupérées depuis le Datalake avec des documents et des schémas des données o S'assurer de la qualité des données consolidées dans l'application par rapport aux données sources o Aider sur le développement des métriques de monitoring des KPIs de l'application o Analyser et croiser les données pour générer de nouveaux insights (creative data qui génèrent le plus de performance...) et benchmarks
Offre d'emploi
Chef de Projet Recette - Plateforme Cloud Native
VISIAN
Publiée le
Infrastructure
Maintien en condition opérationnelle (MCO)
1 an
40k-45k €
400-520 €
Île-de-France, France
Détail de la prestation Ce Pôle est le centre d'expertise pour l'infrastructure, le cloud, la donnée, l'IA et le DevOps. Il accompagne les projets de transformation numérique, garantit la performance, la sécurité et l'innovation, et propose des solutions adaptées aux besoins métiers et applicatifs. Dans le cadre du pilotage du projet stratégique, nous recherchons un Chef de Projet Recette pour renforcer l'équipe projet et notamment le Directeur de programme. La mission consiste à piloter le stream Recette dans le cadre du déploiement et de l'industrialisation de la plateforme OpenShift. Le chef de projet sera responsable de piloter les activités de recette liées au déploiement de la plateforme OpenShift, en assurant la coordination entre les équipes techniques et métiers. Ce programme consiste à remplacer la plateforme OpenStack actuelle, devenue obsolète, par une plateforme cloud native plus moderne, performante et sécurisée. Périmètre Définition du périmètre de recette (technique et fonctionnel) Élaboration de la stratégie de recette et planification Mise en place des environnements de test Coordination avec les équipes MCO/MCS Pilotage des campagnes de recette (y compris celles avec les clients) Suivi des anomalies et coordination des correctifs Reporting projet Contribution à l'amélioration continue Activités attendues Rédaction des plans de test Animation des comités de suivi Suivi opérationnel des tests (exécution, automatisation, couverture) Reporting sur les risques et les plans d'action Coordination transverse avec les autres streams
Mission freelance
Data Engineer
Freelance.com
Publiée le
Amazon Redshift
Apache NiFi
API
1 an
400-480 €
Saint-Denis, Île-de-France
Dans le cadre du développement de son système d’information décisionnel, un grand groupe français renforce sa plateforme data dédiée au pilotage des activités immobilières. La mission s’inscrit dans l’évolution d’un hub de données centralisé , permettant de consolider, partager et valoriser les données métiers pour des usages analytiques avancés : pilotage opérationnel, reporting, data visualisation et ouverture vers des cas d’usage d’intelligence artificielle. Cette plateforme data, déployée depuis 2022, repose sur une architecture Lakehouse moderne dans le cloud AWS , et s’appuie sur des technologies telles que Databricks, NiFi, Redshift et Power BI . L’équipe data actuelle développe et maintient plusieurs applications analytiques visant à améliorer l’exploitation et la qualité des données au service des métiers. En tant qu’ Expert Data Engineer , vous interviendrez sur la conception, l’évolution et l’exploitation du hub de données. Vos principales responsabilités seront : Engineering & Data Platform Assurer la maintenance et l’optimisation des chaînes de traitement existantes (Python, SQL, Databricks, Power BI) Développer de nouveaux pipelines de données pour intégrer de nouvelles sources dans le Data Lake (Batch, API) Participer aux travaux de modélisation et d’urbanisation du hub de données Identifier, collecter, transformer et stocker les données nécessaires à l’alimentation des modèles analytiques Implémenter des algorithmes et traitements avancés exploitant les données du Data Lake Analyse & accompagnement métier Participer aux ateliers avec les métiers afin de formaliser les besoins Rédiger les expressions de besoins et spécifications fonctionnelles Définir les règles de calcul et d’agrégation des indicateurs Proposer des solutions adaptées aux enjeux d’analyse et de pilotage Descriptif de la mission Data visualisation & reporting Concevoir et développer des tableaux de bord et rapports Power BI Automatiser les processus de reporting Produire des indicateurs et restitutions analytiques pour les utilisateurs métiers Documentation & gouvernance Rédiger les spécifications techniques et fonctionnelles Documenter les règles d’alimentation du datawarehouse et les modèles de données Contribuer à la documentation des règles de sécurité et de gouvernance des données Participer aux plans de tests, recettes et supports utilisateurs
Offre d'emploi
Engineering Manager Hands-on
Recrut Info
Publiée le
Apache Kafka
NestJS
Next.js
70k-90k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Rattaché·e au Directeur de l'ingénierie logicielle, vous prendrez le lead sur une équipe de 4 à 7 personnes et travaillerez sur l'une des solutions logicielles éditées par la société. Bien que votre travail ne consistera pas à coder toute la journée, vous passerez néanmoins. 30 à 40% de votre temps en moyenne sur des tâches orientées développement et même jusqu'à 75% au cours de vos 3 premiers mois afin de vous imprégner du contexte technique. A ce titre, vous oeuvrerez dans un contexte particulièrement exigeant et pointu : beaucoup d'éléments du quotidien des équipes visent à être à l'état de l'art, que ce soit sur le plan organisationnel, sur l'architecture logicielle ou bien sur la modernité des technologies utilisées. Dans ce contexte, tout est sujet à optimisation et amélioration continue, si la stack est principalement construite en TypeScript avec NestJs (Node) et Next (React) et hébergées dans des conteneurs sur Google Cloud Platform orchestrés via Kubernetes, beaucoup de passerelles sont conçues en NoCode avec Make et s'appuient sur des traitements IA propulsés notamment par OpenAI (ChatGPT). Bien Entendu, une petite part d'"Event Driven" vient parachever ce tableau. Sans maitriser sur le bout des doigts toutes les solutions techniques exploitées par la société, tous les sujets cités précédemment devront être maitrisés rapidement sur le plan "structurel" pour pouvoir être force de proposition et guider les évolutions futures des produits. Néanmoins, vos responsabilités ne seront pas uniquement techniques, vous aurez aussi à charge le management de l'équipe de développeurs qui vous sera assignée tant sur le suivi des projets que sur les aspects plus "logistiques" et "humains". Vous travaillerez également, conjointement avec le Product Manager dédié, à l'élaboration de la roadmap produit et serez amené·e à participer à des réunions d'avant vente ou d'évolutions produits avec les entreprises clientes de la société. Enfin, vous garderez un oeil sur les metrics fournis par les Data collectées par la société de manière à guider vos décisions sur les évolutions à mener en fonction des usages clients. Environnement technique : TypeScript (souhaité), NestJS (souhaité), ReactJs (souhaité), OpenAI (souhaité), GCP (souhaité), Kubernetes (souhaité), AI (souhaité), Next.js (souhaité), TDD (requis), Archi Hexagonale (souhaité), GitLab, PostgreSQL, REST, ElasticSearch, Low Code (souhaité).
Offre d'emploi
AI Engineer Databricks
KOMEET TECHNOLOGIES
Publiée le
Databricks
45k-60k €
Paris, France
En tant qu’AI Engineer, vous intervenez sur la conception, le développement et l’industrialisation de solutions d’Intelligence Artificielle, allant du Machine Learning classique aux cas d’usage de GenAI. Vous travaillez au cœur des plateformes Data et ML afin de garantir la robustesse, la performance, la scalabilité et la maintenabilité des modèles et services IA mis en production, au service des équipes métiers et produits. Expérience attendue : 3+ ans en ingénierie IA / ML / Data, avec une forte orientation production. Vous correspondez au/à la AI Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique , de rigueur et de pragmatisme Vous êtes autonome, proactif et doté d’un solide sens des responsabilités Vous savez communiquer clairement avec des interlocuteurs techniques et non techniques, et vulgariser des sujets complexes Vous savez prioriser vos tâches , gérer les contraintes (qualité, délais, coûts) et respecter vos engagements Vous disposez d’un solide bagage en software engineering , vous permettant de développer des solutions IA robustes, lisibles, maintenables et testables , principalement en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes à l’aise avec les outils de versioning (Git) et les workflows collaboratifs associés Vous avez déjà travaillé sur des plateformes Data / ML Cloud (ex. Databricks ou équivalent) Vous comprenez les enjeux de préparation des données , de feature engineering et de qualité des datasets pour les usages ML / AI Vous avez une experience dans l’ industrialisation des modèles ML , incluant entraînement, validation, versioning et déploiement Vous êtes sensibilisé aux pratiques MLOps (gestion du cycle de vie des modèles, reproductibilité, monitoring) Vous avez une appétence pour les cas d’usage GenAI (LLM, RAG, embeddings, agents) et savez concevoir et mettre en œuvre de frameworks d’évaluation pour les systèmes GenAI incluant : évaluation de la qualité des réponses (relevance, faithfulness, completeness), validation des chaînes de retrieval et d’embeddings, comparaison de prompts, modèles ou configurations
Mission freelance
Product Director / Lead Product Owner
Trait d'Union
Publiée le
API
E-commerce
Méthode Agile
1 an
550-650 €
Île-de-France, France
Le Product Director occupe une position pivot, à la fois stratégique et opérationnelle, pour piloter une entité dédiée aux solutions d'interface de programmation (API). Sa mission consiste à garantir la fluidité de l'exécution et l'alignement des produits avec les priorités globales de l'organisation. Les responsabilités s'articulent autour de trois piliers majeurs : Pilotage Opérationnel : Encadrement quotidien des Product Owners (PO), gestion des backlogs, arbitrage des priorités et sécurisation des roadmaps. Il agit comme point de contact unique (SPOC) pour les demandes transverses. Transformation & Product Excellence : Modernisation des méthodes de travail via l'intégration de l' IA pour gagner en productivité. Il structure les pratiques de Product Marketing (proposition de valeur) et de Product Operations (visibilité du delivery). Innovation : Identification et lancement d'initiatives exploratoires (POC, phases de discovery, tests marché) pour définir la vision technologique à long terme.
Mission freelance
Data analyst AGILE,DBT,Analyste Fonctionnel,Informatica Power Center NIORT
WorldWide People
Publiée le
DBT
Informatica PowerCenter
12 mois
490-620 £GB
Niort, Nouvelle-Aquitaine
Data analyst AGILE,DBT,Analyste Fonctionnel,Informatica Power Center NIORT- Expérimenté Niort - 2 jours de télétravail AGILE,DBT,Analyste Fonctionnel,Informatica Power Center La mission s’inscrit au sein des activités Data Solutions et Intelligence Artificielle, dont les objectifs sont d’améliorer la valorisation des données et de développer des usages IA responsables. L’équipe a pour rôle : de collecter, organiser et transformer les données afin qu’elles puissent être exploitées efficacement par l’ensemble des métiers, d’être un acteur clé de l’exécution de la stratégie Data, et de favoriser l’adoption de cas d’usage IA performants et fiables, au service des collaborateurs et des clients internes. L’environnement est structuré autour d’un écosystème Data riche, en constante évolution, nécessitant une bonne compréhension technique et une capacité à intervenir sur différents leviers data & IA. Objectifs et livrables Dans le cadre de cette mission, le consultant interviendra sur plusieurs volets critiques : Analyse d’incidents – OMC Personne Analyse approfondie des incidents liés à l’OMC Personne. Identification des causes racines, propositions de corrections et suivi des actions associées. Intégration des évolutions nécessaires dans le fonctionnement de la plateforme. Développements Data Participation aux développements prévus sur les briques Informatica et DBT. Intégration et transformation des données dans le respect des bonnes pratiques data engineering. Contribution à l’industrialisation et à la qualité des pipelines. Contribution à l’amélioration continue Participation aux rituels et travaux data transverses. Proposition d’optimisations techniques et fonctionnelles. Veille active sur les bonnes pratiques et les outils data & IA.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
784 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois