Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 307 résultats.
Freelance

Mission freelance
Développeur Full Stack Python / Angular – IA Générative

CAT-AMANIA
Publiée le
Angular
FastAPI
Git

2 ans
400-450 €
Île-de-France, France
Dans un contexte de forte proximité avec les métiers et d’ innovation rapide , vous rejoignez une équipe de développement transverse dédiée à la création de solutions digitales à forte valeur ajoutée. Cette équipe intervient en mode agile , avec une approche pragmatique et orientée résultats, pour concevoir rapidement des outils métiers, expérimenter de nouveaux usages autour de l’IA générative et accompagner leur industrialisation au sein du système d’information. Vous évoluez au sein d’une équipe pluridisciplinaire composée de développeurs full stack, data engineers, data scientists, tech leads et chef de projet, reconnue pour sa dynamique collective , son esprit d’entraide et sa culture de l’innovation. Vos missions En tant que développeur full stack, vous interviendrez sur un périmètre large et varié : Concevoir et développer des applications web de bout en bout , du besoin métier jusqu’à la mise en production Développer des interfaces web modernes et performantes en Angular, exploitant des traitements de données complexes Concevoir et implémenter des APIs robustes et performantes avec FastAPI Participer à la réalisation de POC et d’applications intégrant de l’IA générative Contribuer à la maintenance évolutive et au run des applications existantes Garantir la qualité du code via des tests unitaires et fonctionnels et le respect des bonnes pratiques Collaborer étroitement avec les équipes produit, design et les utilisateurs métiers Participer à la documentation et à l’amélioration continue des pratiques de développement Être force de proposition dans les réflexions techniques et les choix de solutions innovantes
Freelance

Mission freelance
DataOps Engineer expert Snowflake

Codezys
Publiée le
Python
Snowflake

3 mois
250-300 €
Bordeaux, Nouvelle-Aquitaine
Localisation : Bordeaux Deadline réponse : 14 janvier 26 Démarrage asap pour 3 mois Partenaires et Freelances Mission : ntégré à la DSI en tant que DataOps Engineer, au sein de l’équipe Data Tech Knowledge de la direction IT DATA, vous viendrez apporter votre expertise technique sur la mise en place et l'évolution de la stack data. A l'écoute de nos clients, vous comprenez leurs attentes techniques et vous faites évoluer les process, outils, codes, plateformes permettant de répondre au mieux à leurs besoins. Vous serez notamment chargé de : - Proposer des architectures DATA en mettant en œuvre les principes de l’Agilité, d'intégration et de déploiement continu, en anticipant les besoin de scalabilité, - Contribuer à la réduction des coûts dans une démarche FinOps, - Former les data engineers aux outils de notre stack data, - Mise à dispo d'outillage d'aide aux développement, monitoring… , - Faire une veille technologique autour des architectures data, - Encadrer l’industrialisation du déploiement des applications en utilisant les bonnes pratiques de la CICD
CDI
Freelance

Offre d'emploi
AI ENGINEER - DATA SCIENTIST

SMILE
Publiée le
Data science
Pilotage
Python

6 mois
Paris, France
Au sein de la DSI Corporate d’un grand groupe bancaire, le département Développements Tactiques de la direction Fast Delivery Solutions recrute un Expert Leader Data & IA . Cette direction a pour but de mettre en place des solutions rapides au service de l'ensemble des directions métiers et des fonctions supports, en réponse à des besoins ponctuels ou pérennes. En lien avec les DSI métiers, elle en assure la maintenance et participe à leur éventuelle intégration dans le SI. Pour ce faire, elle met au service des filières métiers une équipe de proximité multi solutions afin de les aider dans leurs travaux ponctuels, la réalisation de POC (Proof Of Concept), de reportings ou bien encore l’automatisation de tâches récurrentes. La mission se situe au sein du département Développements Tactiques qui a pour mission de : Développer des outils en mode commando et en proximité directe avec le métier. Mettre en œuvre des solutions faisant appel à de l’IA générative pour répondre à des besoins métier. Accompagner l’industrialisation de ces solutions dans le parc applicatif des DSI filières. Étudier la possibilité de mise en œuvre de solutions innovantes, au travers d’une veille technologique et d’études d’opportunités. Participer à des évènements et animations de démo ou d’ateliers autour de l’IA ou de la data. L’équipe, actuellement constituée de 19 membres (Data Engineers, Data Scientists et Développeurs FullStack), fonctionne entièrement en mode agile et en proximité avec les métiers. Jeune, dynamique, motivée et très proactive, l’équipe valorise l’entraide et la bonne ambiance. Le candidat devra donc avoir la personnalité permettant de conserver cette dynamique intacte. Les soft skills sont donc autant essentielles que les compétences techniques : bon communiquant, motivé, force de proposition et sociable. Compétences techniques déjà présentes dans l’équipe : Développement autour de l’IA Générative. Développement Python / Pycharm. Développement Front Angular. Développement de cas d’usage IA générative à destination du business. Développement PySpark / Spark / Scala. Connaissance des plateformes Cloud. Mise en œuvre de workflows sous Alteryx. La mission : L’équipe se voit confier un nouveau programme visant à mettre en œuvre un ensemble de Use Cases faisant appel à de l’IA générative ou consistant à automatiser des traitements. Pour faire face à ce nouveau programme, nous souhaitons renforcer nos compétences avec un AI Engineer confirmé Data & IA . Principales missions : Innovation et réalisation de POCs : assurer la faisabilité technique des cas d’usage, développer des POCs autour de projets IA générative, proposer des solutions innovantes (LLM, prompts, RAG, traitement de données complexes). Industrialisation : en collaboration avec la production applicative et les contributeurs DSI, industrialiser les sujets dont les POCs s’avèrent concluants. Expertise Data & IA Générative : leader techniquement les projets, en s’appuyant sur les technologies internes (plateforme cloud, outils IA, modèles de langage type Gemini). Force de proposition : identifier des axes d’amélioration et proposer des solutions innovantes. Partage de connaissances : contribuer à la montée en compétences collective au sein de l’équipe. Suivi des sujets : assurer une communication claire et synthétique au responsable de l’équipe et aux Product Owners.
Freelance

Mission freelance
Expert MS Fabric

TAHYS RECRUITMENT SOLUTIONS
Publiée le
Microsoft Fabric

12 mois
Paris, France
Fluent english! Piloter la mise en place et l’architecture de la plateforme Microsoft Fabric , garantir la cohérence technique, la sécurité et la performance des environnements Data, en alignement avec les bonnes pratiques Cloud et DevOps . Responsabilités Définir et implémenter l’architecture cible Microsoft Fabric (Data Factory, Data Engineering, Data Science, Real-Time, OneLake). Mettre en place les standards, patterns et bonnes pratiques (gouvernance, sécurité, performances, optimisation des coûts). Encadrer et accompagner l’équipe projet (Data Engineer, Cloud Engineer, Data Scientist, Purview Expert). Industrialiser la configuration via scripts IaC / DevOps (ARM/Bicep, Terraform, GitHub Actions, Azure DevOps). Assurer le lien avec les parties prenantes (métier, IT, sécurité) et garantir la conformité (RGPD, gouvernance). Suivre l’avancement technique, challenger les choix et valider les livrables.
CDI

Offre d'emploi
Tech Lead Databricks - Lyon

KOMEET TECHNOLOGIES
Publiée le
Databricks
PySpark

50k-60k €
Lyon, Auvergne-Rhône-Alpes
En tant que Tech Lead, vous êtes l'expert Data Engineering et le référent technique dans vos missions. Vous intervenez principalement sur les problématiques d’ingestion, de traitement et d’industrialisation des données sur la data plateforme. Sans être responsable de l’architecture Data globale, vous avez un rôle clé dans la qualité des livrables, la standardisation des pratiques et la montée en compétence des Data Engineers. Expérience attendue : 7 à 12+ ans en Data Engineering avec une expérience dans un rôle de référent technique Vous correspondez au/à la Tech Lead que nous recherchons si : Vous disposez d’un leadership technique , reconnu et légitime auprès des équipes Vous savez animer, encadrer et fédérer une équipe autour de bonnes pratiques techniques et d’objectifs communs Vous faites preuve d’une excellente communication , associée à une forte capacité pédagogique Vous adoptez un esprit critique constructif et savez challenger les choix techniques dans une logique d’amélioration continue Vous êtes capable de prendre du recul sur des problématiques techniques afin de proposer des solutions pertinentes et durables Vous êtes autonome , proactif et doté d’un fort sens des responsabilités Vous favorisez le partage de connaissances et la montée en compétence collective Vous savez collaborer efficacement avec des rôles transverses (Architectes, Product Owners, DevOps, ML Engineers) Vous maîtrisez Python et SQL à un niveau avancé , avec une forte sensibilité aux bonnes pratiques de software engineering (qualité, maintenabilité, testabilité) Vous êtes capable de définir, documenter et faire appliquer des standards de développement , incluant la structuration des projets, les conventions de code et les stratégies de tests Vous avez une expérience significative dans la mise en place et la maintenance de chaînes CI/CD appliquées aux pipelines Data Vous portez une attention particulière à la qualité des données , à la testabilité et à l’ observabilité des pipelines en production Vous pratiquez régulièrement les revues de code , le mentoring et l’accompagnement technique des Data Engineers Vous êtes en mesure de concevoir des frameworks internes et des briques techniques réutilisables afin d’industrialiser et standardiser les développements Vous comprenez les enjeux de performance, de scalabilité et de maîtrise des coûts , et savez les intégrer dans vos choix techniques
Freelance
CDI

Offre d'emploi
DataOps Engineer

CAT-AMANIA
Publiée le
CI/CD
ETL (Extract-transform-load)
Méthode Agile

3 mois
40k-45k €
100-400 €
Bordeaux, Nouvelle-Aquitaine
En tant que DataOps Engineeer, et en coordination avec l’équipe, vos missions principales seront de : - Proposer des architectures DATA en mettant en œuvre les principes de l’Agilité, d'intégration et de déploiement continu, en anticipant les besoin de scalabilité, - Contribuer à la réduction des coûts dans une démarche FinOps, - Former les data engineers aux outils de notre stack data, - Mise à dispo d'outillage d'aide aux développement, monitoring… , - Faire une veille technologique autour des architectures data, - Encadrer l’industrialisation du déploiement des applications en utilisant les bonnes pratiques de la CICD
Freelance

Mission freelance
MLOps / Tech Lead Plateforme IA

Cherry Pick
Publiée le
CI/CD
Data governance
Data Lake

12 mois
550-610 €
Paris, France
Contexte et enjeux Notre client en assurance s’est engagé dans un projet stratégique majeur visant à accélérer et industrialiser le déploiement des cas d’usage de la Data Science et de l’Intelligence Artificielle (Machine Learning et LLM). Ce programme ambitieux repose sur la mise en œuvre de socles technologiques robustes, sécurisés et scalables : MLOps LLMOps Environnements Python industrialisés L’objectif est de fournir une plateforme mutualisée et standardisée permettant le développement, l’entraînement, le déploiement et le monitoring des modèles d’IA, utilisable par l’ensemble des équipes Data & IA du client. Dans ce cadre, notre client en assurance recherche un Consultant expert pour prendre en charge la gestion et l’animation de l’équipe dédiée à la plateforme MLOps . Ce rôle est stratégique pour la réussite du projet et la pérennisation des socles en mode RUN. Responsabilités principales 1. Management et animation de l’équipe MLOps Structurer et encadrer l’équipe MLOps (MLOps Engineers, Data Engineers, etc.) Définir les rôles et responsabilités Organiser et planifier les activités, répartir les charges et suivre l’avancement Mettre en place et animer les rituels agiles (daily stand-ups, sprint reviews, rétrospectives) Favoriser la montée en compétences et la diffusion des bonnes pratiques 2. Pilotage technique de la plateforme MLOps / LLMOps Définir l’architecture technique de la plateforme en collaboration avec les architectes et les équipes Data & IA Sélectionner et intégrer les outils et technologies MLOps / LLMOps pertinents Garantir la disponibilité, la scalabilité, la sécurité et la performance de la plateforme Assurer la conformité aux normes de sécurité, de gouvernance des données et de réglementation (RGPD) Définir, suivre et analyser les KPIs de la plateforme et des modèles déployés 3. Delivery du socle MLOps et des cas d’usage Garantir le déploiement des composants du socle MLOps industriel , en lien avec l’ensemble des parties prenantes DSI Organiser la réintégration des cas d’usage déjà en production dans le nouveau socle (compatibilité ascendante) Piloter le déploiement et la gestion opérationnelle de la plateforme MLOps, en autonomie et en coordination avec la DSI Accompagner l’industrialisation et la mise en production des cas d’usage IA 4. Roadmap, gouvernance et pilotage Définir et mettre en œuvre la roadmap MLOps / LLMOps , en adéquation avec les besoins des équipes Data & IA Piloter un portefeuille de projets techniques Gérer les budgets et l’allocation des ressources Animer les instances de pilotage (Comité Projet, Comité de Pilotage) S’appuyer sur les outils de suivi : SCIFORMA (planning et suivi budgétaire), JIRA (suivi des tâches) 5. Communication et coordination Interagir avec les équipes Data Scientists, Data Analysts, Architectes, Sécurité et Opérations Présenter l’avancement et les résultats aux parties prenantes internes (direction, métiers) Animer des ateliers de partage de connaissances et de bonnes pratiques Accompagner l’adoption de la plateforme par les équipes Data & IA Livrables attendus Organisation cible et plan de charge de l’équipe MLOps Roadmap détaillée de la plateforme MLOps / LLMOps Documentation technique et fonctionnelle Rapports d’activité et tableaux de bord de suivi Propositions d’architecture et de choix technologiques Processus et procédures MLOps / LLMOps formalisés Supports de formation et de sensibilisation
Freelance
CDI

Offre d'emploi
Senior Cloud Security Engineer – Azure / GenAI (H/F)

AVA2I
Publiée le
Microsoft Copilot Studio
Azure AI
CI/CD

3 ans
Île-de-France, France
Dans le cadre de programmes stratégiques autour de l’ IA de nouvelle génération (GenAI) , notre client grand compte du secteur bancaire renforce ses équipes avec un expert technique en cybersécurité et DevSecOps , très orienté mise en œuvre concrète des contrôles de sécurité sur Azure / Microsoft . Vous rejoignez une équipe internationale mature, déjà dotée de profils GRC et pilotage . 👉 Ce poste n’est pas un rôle de chef de projet ni de GRC : la valeur attendue est 100 % technique . 🎯 Priorité absolue : experts cyber capables de sécuriser des cas d’usage GenAI / LLM / agentiques en production , dans un contexte bancaire exigeant (sécurité, conformité, data sensible) . Vos missions (périmètre technique) Vous interviendrez en support technique avancé pour la sécurisation de la stack IA du client : 🔹 Sécurité des plateformes GenAI sur Azure Azure AI & Cognitive Services Azure OpenAI (si utilisé) Azure Machine Learning Microsoft Fabric, Power Platform, M365 Intégrations data (ex : Snowflake) 🔹 Design & implémentation des contrôles de sécurité Identités & accès : RBAC, MFA, Conditional Access, PIM Sécurisation réseau et cloisonnement des environnements Sécurisation des endpoints et services IA 🔹 DevSecOps & Infrastructure as Code Mise en place et amélioration de pipelines CI/CD sécurisés Sécurité de l’IaC : Terraform, Bicep Intégration de contrôles automatisés et policy-as-code 🔹 Outils de sécurité Microsoft Microsoft Sentinel Defender for Cloud Microsoft Purview (DLP, classification, conformité) 🔹 Rôle de référent technique Interaction directe avec développeurs, data engineers, data scientists Capacité à apporter des réponses opérationnelles sur les risques IA : prompt injection data / model poisoning exfiltration de données escalade de privilèges via agents / LLM 📦 Livrables attendus Blueprints et architectures de sécurité GenAI sur Azure Configurations sécurisées des services IA (RBAC, policies, alertes, DLP…) Contribution aux analyses de risques et mesures de mitigation techniques Revue de code, IaC et pipelines CI/CD Mise en œuvre de contrôles automatisés Reporting technique : posture de sécurité, vulnérabilités, plans de remédiation
CDI

Offre d'emploi
Tech Lead Databricks

KOMEET TECHNOLOGIES
Publiée le
Databricks
PySpark

55k-70k €
Paris, France
En tant que Tech Lead, vous êtes l'expert Data Engineering et le référent technique dans vos missions. Vous intervenez principalement sur les problématiques d’ingestion, de traitement et d’industrialisation des données sur la data plateforme. Sans être responsable de l’architecture Data globale, vous avez un rôle clé dans la qualité des livrables, la standardisation des pratiques et la montée en compétence des Data Engineers. Expérience attendue : 7 à 12+ ans en Data Engineering avec une expérience dans un rôle de référent technique Vous correspondez au/à la Tech Lead que nous recherchons si : Vous disposez d’un leadership technique , reconnu et légitime auprès des équipes Vous savez animer, encadrer et fédérer une équipe autour de bonnes pratiques techniques et d’objectifs communs Vous faites preuve d’une excellente communication , associée à une forte capacité pédagogique Vous adoptez un esprit critique constructif et savez challenger les choix techniques dans une logique d’amélioration continue Vous êtes capable de prendre du recul sur des problématiques techniques afin de proposer des solutions pertinentes et durables Vous êtes autonome , proactif et doté d’un fort sens des responsabilités Vous favorisez le partage de connaissances et la montée en compétence collective Vous savez collaborer efficacement avec des rôles transverses (Architectes, Product Owners, DevOps, ML Engineers) Vous maîtrisez Python et SQL à un niveau avancé , avec une forte sensibilité aux bonnes pratiques de software engineering (qualité, maintenabilité, testabilité) Vous êtes capable de définir, documenter et faire appliquer des standards de développement , incluant la structuration des projets, les conventions de code et les stratégies de tests Vous avez une expérience significative dans la mise en place et la maintenance de chaînes CI/CD appliquées aux pipelines Data Vous portez une attention particulière à la qualité des données , à la testabilité et à l’ observabilité des pipelines en production Vous pratiquez régulièrement les revues de code , le mentoring et l’accompagnement technique des Data Engineers Vous êtes en mesure de concevoir des frameworks internes et des briques techniques réutilisables afin d’industrialiser et standardiser les développements Vous comprenez les enjeux de performance, de scalabilité et de maîtrise des coûts , et savez les intégrer dans vos choix techniques
Freelance

Mission freelance
PRODUCT OWNER (DATA SUPPLY)

Signe +
Publiée le
Snowflake

12 mois
560 €
Paris, France
CONTEXTE Intégration chez un grand groupe Retail international. Le PO évoluera dans une équipe Data d’environ 30 personnes structurée par domaines. Rattachement direct au Lead PO Data Supply / Operations. Objectif : piloter la vision, la roadmap et la valeur produit Data sur les périmètres Supply, Operations et Planning. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (analyse et manipulation de gros volumes). – Stack technologique : – Snowflake (Data Warehouse cloud) – Matillion pour l'ETL, évolution prévue vers DBT – QlikSense (reporting & visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur des sujets Data stratégiques liés au Demand Planning, aux opérations retail et à la supply. Responsabilités principales : – Définition des parcours utilisateurs et construction des KPIs clés. – Rédaction de spécifications fonctionnelles pour Data Engineers et Data Analysts. – Gestion et mise à jour du Data Catalog sur le périmètre confié. – Garantie du design produit, cohérence globale et qualité des livrables. Cadre méthodologique : – Organisation Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : capacité à challenger le métier, proposer de la valeur, structurer un produit cohérent. PROFIL RECHERCHÉ – Au moins 8 ans d’expérience dans la Data, dont 4 ans en tant que Product Owner ou Chef de Projet Data. – Solide connaissance du Retail, notamment des enjeux Supply, Planning et opérations. – Qualités clés : – Autonomie, prise de décision – Leadership naturel, capacité à fédérer – Excellente capacité d’analyse – Esprit critique, force de proposition
Freelance

Mission freelance
Ingénieur Data Oracle/SQL/Python

CS Group Solutions
Publiée le
Apache Airflow
Git
Oracle

12 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Ingénieur Data Oracle/SQL/Python Objectif global : Développement Data Engineer Oracle/SQL/Python Contrainte du projet: Contexte Data Les livrables sont: Développement des nouvelles fonctionnalités TU / Spécifications techniques MCO/RUN Compétences techniques: Oracle - Confirmé - Impératif SQL - Confirmé - Impératif Python - Junior - Important Airflow - Junior - Souhaitable Description détaillée: Nous cherchons un data ingénieur ASAP pour une mission longue durée Compétences : ORACLE impératif SQL impératif Python : c’est un plus mais pas obligatoire Expérience : Participation à des projets liés à la Data et aux Bases de données (injection et exposition des données) Bonne compréhension fonctionnelle Utilisation de GIT pour la gestion de version Niveau recherché : Confirmé (surtout Oracle et SQL, ok pour junior/intermédiaire sur Python) Compétences appréciées (Bonus) : Airflow Apache (ordonnanceur de traitements de données en Python) Trino (exposition des données depuis sources multiples en SQL) Méthodologie Agile SAFE & Scrum Outils de gestion de projet : Jira, Confluence Profil orienté Data Ingénieur On ne recherche pas de profil devsecOps, ni de data architecte Activités : Build 80% & MCO/RUN 20% Conditions de travail : Présentiel souhaité : 2 jours par semaine chez le client
Freelance

Mission freelance
Développeur Fullstack Senior Python Typescript(H/F)

HOXTON PARTNERS
Publiée le
API REST
Python
TypeScript

6 mois
Paris, France
Dans le cadre d’un programme d’envergure, nous recherchons un Développeur Fullstack confirmé pour intervenir sur la conception, le développement et le maintien en condition opérationnelle de composants logiciels critiques. Le projet s’inscrit dans un contexte d’innovation, d’interopérabilité et de valorisation de données sensibles, à destination de médecins, chercheurs et équipes métiers, avec une forte orientation Open Source. Missions principales Le consultant interviendra sur l’ensemble du cycle de vie des applications, avec un haut niveau d’autonomie, et sera notamment en charge de : Concevoir et développer des composants Front-end et Back-end robustes et réutilisables Développer et exposer des API REST conformes aux standards d’interopérabilité (FHIR) Réaliser des interfaces utilisateurs en JavaScript / TypeScript (React) Assurer la maintenance évolutive et le maintien en condition opérationnelle des applicatifs Produire des spécifications techniques détaillées et de la documentation technique Mettre en œuvre les tests unitaires, fonctionnels et de non-régression Contribuer à la qualité logicielle (sécurité, performance, documentation) Collaborer avec des équipes pluridisciplinaires (designers, PM/PO, data engineers, chercheurs, médecins) Participer à des projets Open Source reconnus dans le domaine de la santé
Freelance

Mission freelance
Senior DataOps / DevOps AWS – Terraform

OAWJ CONSULTING
Publiée le
AWS Cloud
Databricks
Terraform

1 an
400-550 €
Lyon, Auvergne-Rhône-Alpes
Dans un environnement Media à forte volumétrie de données, le consultant interviendra au sein d’une équipe Data & Platform pour industrialiser, sécuriser et faire évoluer les plateformes data sur AWS . Le rôle est clairement senior , orienté DataOps / DevOps , avec une forte proximité Databricks. Responsabilités Conception et industrialisation des plateformes data sur AWS Mise en place et maintenance de l’infrastructure as code avec Terraform Déploiement, configuration et optimisation des environnements Databricks (AWS) Automatisation des pipelines Data & infra (CI/CD) Gestion des environnements (dev, preprod, prod) Sécurisation des accès, gestion des coûts et optimisation des performances Collaboration étroite avec les équipes Data Engineers et Analytics Compétences requises (impératives) Databricks sur AWS – expertise confirmée Terraform – niveau avancé AWS (IAM, VPC, S3, EC2, EKS ou équivalent) Solide culture DevOps / DataOps CI/CD (Git, pipelines automatisés) Bonne compréhension des architectures data cloud Profil recherché Senior DataOps / DevOps Autonome, structuré, orienté production À l’aise dans des environnements data complexes et critiques
Freelance
CDI

Offre d'emploi
Tech Lead Data

KP2i
Publiée le
CI/CD
DBT
Python

12 mois
40k-60k €
400-600 €
Île-de-France, France
Tech Lead Data & Analytics (Snowflake, dbt, Tableau) – Télétravail possible 📍 Temps plein | F/H/X Nous recherchons un(e) Tech Lead Data pour rejoindre une Feature Team et piloter le développement de produits Data Analytics & IA de haute qualité. Missions principales : Encadrer et coacher une équipe de Data Engineers Définir les choix techniques et modélisations des produits Data Industrialiser et optimiser les flux et produits Data Relever des défis techniques, challenger le "status quo" et proposer des améliorations Compétences techniques requises : SQL, Python, Jinja Snowflake (ou autre Modern Data Platform, ex: GCP BigQuery) dbt, Tableau ou autres outils Analytics Culture Agile & DevOps (CI/CD) Profil recherché : 7+ ans d’expérience en Data, dont 3 ans comme Senior Data Engineer Leadership, autonomie et orientation résultats 💬 Candidature / Contact : Merci de postuler via le site ou de nous envoyer un message directement pour échanger sur le poste.
CDI

Offre d'emploi
Business Analyst Data H/F

█ █ █ █ █ █ █
Publiée le
Big Data
DevOps
Git

42k-46k €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI
CDD

Offre d'emploi
Expert IA

NEO SOFT SERVICES
Publiée le
Ansible
Docker
Gitlab

4 mois
Nantes, Pays de la Loire
L'un des pôles de notre client est porteur de l’offre d’ Aide au Delivery qui doit permettre de sécuriser et d’améliorer l’ensemble du processus de CI/CD en s’intégrant dans les différents outils intervenant dans la chaine. CAS D’USAGES • Correction pré-compilation des vulnérabilités : Détection et suppression des failles dans les dépendances avant la phase de build (ex. vulnérabilités dans des librairies open source comme Log4j). • Analyse des rapports : Exploitation des rapports générés par SonarQube pour identifier les points critiques et proposer des actions correctives. • Analyse et correction des erreurs : Diagnostic des échecs de tests unitaires ou d’intégration et suggestion de correctifs automatisés (ex. erreurs de configuration dans Docker ou Kubernetes). • Optimisation des normes de sécurité et DEV : Vérification de la conformité aux standards internes (ex. respect des conventions de codage). • Prédiction des échecs de BUILD : Utilisation de modèles prédictifs pour anticiper les échecs liés à des conflits de dépendances ou des problèmes de versioning. • Assistance au développement des pipelines : Génération de templates optimisés pour GitLab CI/CD, incluant des bonnes pratiques de sécurité et de performance. Ce pôle est également contributeur de l’offre d’ Aide à la Conception qui est définie comme une Assistance intelligente pour l'ensemble du cycle de conception de produits, de la capture des besoins à la planification des sprints . L'IA analyse les spécifications textuelles des utilisateurs, les traduit automatiquement en tâches structurées, estimations d'effort et les organise logiquement en feuilles de route et backlogs optimisés. Cela accélère la phase de planification, réduit les ambiguïtés et améliore la cohérence de la documentation du projet. CAS D’USAGES • Traduction de cahier des charges en users stories : Transformer un cahier des charges en un backlog organisé (user stories), hiérarchisé par thèmes ou épopées (epics). • Affinement des Exigences : Compléter et clarifier des récits utilisateurs incomplets ou ambigus en suggérant les critères d'acceptation manquants. • Génération de Documentation Technique : Créer automatiquement des ébauches de documents de spécifications techniques ou des diagrammes d'architecture à partir des récits utilisateurs approuvés. Ce pôle participe aussi à l’offre Aide aux tests fonctionnels , qui s'intègre à l'environnement Squash pour accélérer la création et la maintenance des tests fonctionnels. En analysant les exigences et les spécifications, l'IA génère automatiquement des cas de tests structurés (étapes, actions, résultats attendus) qui pourront être importés ou validés dans Squash TM. Elle garantit une couverture fonctionnelle optimale tout en standardisant la qualité rédactionnelle des scénarios de tests fonctionnels. CAS D’USAGES • Génération des jeux de tests : L'utilisateur soumet une exigence textuelle, et l'IA produit la liste séquentielle des étapes à saisir dans Squash, en distinguant clairement l'action utilisateur du résultat attendu par le système. • Création de Variantes : À partir d'un "cas passant" (nominal) déjà écrit dans Squash, l'IA propose 3 ou 4 variantes de "cas d'erreur" ou de tests aux limites que le testeur aurait pu oublier. • Refactorisation et Clarification : L'IA analyse des descriptions de tests existants un peu flous ou anciens et propose une réécriture plus concise et standardisée pour améliorer la lisibilité du patrimoine de tests. Plusieurs outils gérés par le pôle SAM sont concernés à la mise en œuvre de ces offres, à minima : • Gitlab • Squash • Jira La prestation consistera, en collaboration avec les architectes techniques et fonctionnels, les services owners, tech leads et data engineers de l’équipe, le pôle Production de l’offre MLOps : Contribution à définir les besoins et évolutions nécessaires sur les outils ou processus pour répondre aux attendus sur les offres dont le pôle est porteur ou contributeur Concevoir et contribuer à la mise en œuvre technique des évolutions nécessaires Rédiger l’offre de service en collaboration avec le service owner correspondant
307 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous