Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 233 résultats.
CDI

Offre d'emploi
Data Engineer & API Automation (H/F)

Link Consulting
Publiée le

50k-60k €
Montaigu-Vendée, Pays de la Loire
Notre client est un groupe industriel européen spécialisé dans la fabrication de compléments alimentaires, présent sur plusieurs sites en France, Belgique, Italie et Pays-Bas. Acteur engagé à l'intersection de la santé et du bien-être, il accélère aujourd'hui la structuration et la modernisation de son système d'information. Dans ce cadre de transformation, la DSI renforce son équipe avec un profil Data & Integration Engineer — rôle transverse et stratégique, au cœur de la fiabilisation des données, de l'intégration applicative et de l'automatisation des processus. Vos missions : ? Data Engineering & Qualité des données (cœur du poste, ~70%) * Concevoir, développer et maintenir des pipelines ETL / ELT fiables et industrialisés * Assurer les transformations, validations et migrations de données dans le cadre des projets ERP * Mettre en œuvre les mécanismes de qualité : contrôles, règles de gestion, historisation, traçabilité * Garantir l'intégrité, l'unicité et la cohérence des référentiels de données (MDM / PIM) * Travailler sur des modèles relationnels et analytiques (étoile, snowflake) * Contribuer au dictionnaire de données et à la documentation fonctionnelle et technique ? Intégration & Interopérabilité (~15%) * Concevoir et opérer les flux inter-applications via des solutions EAI / iPaaS (n8n, Boomi ou équivalent) * Maintenir le catalogue de flux (SFTP, API REST, GraphQL) et en assurer la documentation * Tester et déboguer les API avec des outils dédiés (Postman ou équivalent) ? APIs & Services Data pour les métiers (~10%) * Exposer des API et services data sécurisés pour faciliter l'accès aux données d'entreprise * Permettre aux équipes de construire des POC, prototypes et cas d'usage IA rapidement * Veiller à la gouvernance, à la sécurité et à la traçabilité des accès aux données ? Automatisation & IA (~5%) * Développer ou intégrer des automatisations via scripts, workflows EAI ou solutions low-code / RPA * Contribuer à l'intégration de cas d'usage IA et aider à industrialiser les prototypes métiers Les compétences techniques * * SQL avancé — indispensable (transformations complexes, optimisation, gouvernance) * Solides bases en Data Engineering : pipelines, ETL/ELT, qualité et modélisation des données * Maîtrise des API REST ; GraphQL appréciée * Pratique de Git et sensibilité aux principes DevOps * Expérience ou forte appétence pour Go, Python ou Node.js * Familiarité avec les environnements cloud — idéalement Microsoft Azure (Functions, App Services, Logic Apps) * Connaissance ou intérêt pour les outils EAI / automatisation (n8n, Boomi ou équivalents) * Sensibilité aux enjeux d'urbanisation du SI et de gouvernance des données
Freelance

Mission freelance
Data Engineer Nantes/pa

WorldWide People
Publiée le
Scripting

12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Freelance

Mission freelance
DATA SCIENTIST - sénior

Geniem
Publiée le
Data science
Dataiku
Machine Learning

6 mois
Lille, Hauts-de-France
Pour compléter une équipe transverse : Data Engineer, Data Scientist, Data Analyst et MLOps Elle assure également le lien avec la Global Tech & Data Platform . Cette plateforme construit et maintient les produits liés à nos infrastructures et notre transformation vers le Cloud GCP, assurant ainsi l’efficacité opérationnelle sur lesquelles reposent nos plateformes métiers. Votre mission : En lien avec notre philosophie Data In Product, vous êtes responsable de : La création de solutions et applications ML/IA de pointes, pour mise en production, La modélisation et l’industrialisation de modèles produits au service des BUs de la plateforme, L’élaboration d’un cadre de bonnes pratiques au sein de la guilde Data du domaine, L’accompagnement et l’acculturation des métiers sur les bonnes pratiques de l’exploitation de la data. Vous êtes vous-même sensible à l’approche Data Driven de nos produits, L’intégration des applications ML dans nos produits, en lien avec les équipes métiers, La mise en place de modèles statistiques pour résoudre les problématiques identifiées, La collecte de données, la construction de Data Marts et le déploiement de modèles (end-to-end PoC), La connaissance des métriques de base, et les principes d’évaluation de la qualité des modèles obtenus, et leur relation avec les indicateurs de performances Métier, La veille technologique pour orienter et être force de proposition sur l’animation de la backlog du Data Socle COMPÉTENCES REQUISES/ Technique : Python, SQL, GCP (BigQuery, GCS, ...), Pipeline MLOps, Linux, Modélisation de données Méthodologique : Agilité, Github Langues : Français, Anglais
Freelance

Mission freelance
POT9028 - Un architecte Data - Snowflake sur Massy

Almatek
Publiée le
SQL

6 mois
Massy, Île-de-France
ALMATEK recherche pour l'un de ses clients, Un architecte Data - Snowflake sur Massy CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Languages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
Freelance
CDI

Offre d'emploi
Product Owner / Chef de Projet IA Générative – Chatbot

OBJECTWARE
Publiée le
Chatbot

3 ans
Île-de-France, France
Contexte de la mission Dans le cadre du programme de notre client, celui-ci souhaite concevoir et déployer une plateforme de chatbot intelligent et sécurisé destinée à accompagner les collaborateurs dans leurs activités quotidiennes. Cette solution permettra de proposer une expérience conversationnelle multilingue , intégrant des assistants métiers, des prompts, des fichiers et des indicateurs de performance, tout en respectant les standards de sécurité et d’accessibilité du groupe (RGAA) . Vos missions Au sein de l’équipe produit, vous interviendrez sur : La définition des exigences fonctionnelles et réglementaires (RGAA, sécurité) La construction de la roadmap produit et la planification des releases La priorisation des fonctionnalités (MVP, backlog, User Stories) La définition et le suivi des KPIs d’usage et de performance La cartographie des assistants et des prompts métiers La définition des parcours utilisateurs et scénarios conversationnels La mise en place d’un modèle de gouvernance et de gestion des accès L’analyse des retours utilisateurs et l’amélioration continue de la solution Profil recherché Expérience significative en tant que Product Owner / Chef de Projet IT / Business Analyst Expérience sur des projets Chatbot, Conversational AI ou IA Générative Bonne maîtrise des méthodes Agile (Scrum / SAFe) Expérience en gestion de backlog, rédaction de User Stories et pilotage produit Connaissance des environnements LLM / GenAI / assistants conversationnels Bonne compréhension des enjeux UX, gouvernance et sécurité ⭐ Compétences appréciées Prompt engineering NLP / LLM Digital Workplace API / intégration SI Accessibilité RGAA
Freelance
CDI

Offre d'emploi
Data Scientist Senior - Veille & Développement Modèles

TS-CONSULT
Publiée le
Azure
Scikit-learn

1 an
Île-de-France, France
Bonjour a tous ,actuellement je suis a la recherche d'un profil , Data Scientist Senior - Veille & Développement Modèles Profil recherché : Data Scientist Senior avec expérience banking/finance, expert en ML/DL et maîtrisant le vibe coding, capable d'évaluer rapidement la faisabilité technique des use cases IA, de développer des POCs et de rester à la pointe des avancées technologiques. Compétences requises Hard Skills : • 7 ans d'expérience minimum en Data Science / Machine Learning • Expérience confirmée dans le secteur banking/finance (compréhension des enjeux métier) • Expérience démontrée en vibe coding avec utilisation productive d'outils IA pour prototypage rapide • Expertise en ML/DL : apprentissage supervisé, non-supervisé, deep learning, NLP, séries temporelles • Maîtrise des frameworks Python : scikit-learn, TensorFlow, PyTorch, XGBoost, LightGBM • Connaissance approfondie des LLMs et techniques modernes (fine-tuning, RAG, prompt engineering, agents) • Expertise en feature engineering et sélection de variables • Maîtrise de l'analyse exploratoire de données et statistiques • Expérience en évaluation et optimisation de modèles (hyperparameter tuning, cross-validation) • Connaissance des plateformes Cloud ML (AWS SageMaker, Azure ML, GCP Vertex AI) • Maîtrise de SQL et manipulation de grands volumes de données • Connaissance des outils de versioning (Git) et notebooks (Jupyter, Databricks) • Un plus : Expérience en Computer Vision, Reinforcement Learning ou Graph ML Soft Skills : • Curiosité intellectuelle insatiable et veille technologique active • Capacité de synthèse et de recommandation (traduire la complexité technique en insights actionnables) • Esprit critique face aux résultats de modèles et au code généré par IA • Pragmatisme : capacité à évaluer rapidement le ROI d'une approche technique • Rigueur scientifique dans l'expérimentation et la validation • Excellente communication technique et métier • Capacité à travailler dans l'incertitude et l'ambiguïté • Esprit d'initiative et force de proposition • Pédagogie et mentorat (accompagnement du Data Scientist junior) • Esprit agile et adaptatif Anglais courant.
Freelance

Mission freelance
Data Engineer Semarchy ou stambia  xDI Full remote ASAP

WorldWide People
Publiée le
Semarchy

6 mois
330-350 €
France
Data Engineer Semarchy ou stambia xDI Full remote ASAP Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDI , SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition.
Freelance

Mission freelance
DATA ENGINEER DDL ( profil habilitable)

Signe +
Publiée le
Python

12 mois
610 €
Issy-les-Moulineaux, Île-de-France
Contexte Ouverture d’une nouvelle entité chez le client. Le Data Engineer interviendra dans un environnement IA / Big Data avec forte dimension cloud et DevOps. Missions Identification et analyse des besoins Participation aux ateliers d’idéation Rédaction de documentations techniques détaillées Définition des spécifications projets IA Proposition de solutions algorithmiques adaptées Interaction avec les infrastructures data Intégration et maintenance de solutions d’IA Gestion d’environnements Big Data, cloud et on-premise Mise en place DevOps / DevSecOps / MLOps Implémentation de pipelines CI/CD Mise en place de dépôts de code Contribution à une culture agile et sécurisée Communication et partage Partage de connaissances au sein de l’entité Communication sur les avancées et retours d’expérience Accompagnement à la montée en compétence de l’équipe Compétences techniques attendues Développement : Python, SQL, Spark, Scala Frameworks ML : pandas, numpy, scikit-learn ETL / pipelines : Apache Nifi, Talend, Kafka Big Data / Cloud : S3, Hadoop, MapReduce Bases de données : PostgreSQL, MySQL, MongoDB, Cassandra DevOps / MLOps : Docker, Gitlab, Kubernetes Profil recherché Expérience confirmée en environnement Data / IA Forte capacité d’analyse et de structuration À l’aise dans un contexte de création d’entité
Freelance
CDI

Offre d'emploi
Ingénieur Études & Développement .NET – Environnement Finance (WPF / SQL / VBA)

Deodis
Publiée le
SQL
VBA

1 an
40k-45k €
380-400 €
Île-de-France, France
Dans le cadre du renforcement de ses équipes, notre client, acteur majeur du secteur financier, recherche un(e) Développeur(se) .NET Confirmé(e) / Senior pour intervenir sur des applications métiers à destination des équipes advisory et corporate equity. Intégré(e) à une équipe de 4 développeurs et d’un chef de projet, vous serez en charge d’analyser les besoins des métiers, de concevoir et développer de nouvelles fonctionnalités et applications, ainsi que d’assurer la maintenance et l’évolution des outils existants. Vous interviendrez sur un environnement technique riche comprenant .NET (C#), WPF, WCF, SQL (Oracle), Windows Server (IIS), ainsi que des outils collaboratifs tels que GIT, Jenkins et Jira. Une connaissance de Python, de l’environnement Excel/VBA et des notions en IA (prompt, modèles, outils de code assisté) seront fortement appréciées. Ce poste requiert autonomie, esprit d’analyse et capacité à interagir avec des interlocuteurs métiers dans un contexte exigeant et stimulant.
Freelance

Mission freelance
Data Analytics et platform Azur ou AWS IA Anglais 480 e par jour

BI SOLUTIONS
Publiée le
API Platform
AWS Cloud

2 ans
400-480 €
Île-de-France, France
Data Analytics et platform Azur ou AWS IA Anglais 480 e par jour Rôles et responsabilités En tant que membre de notre squad Data and Analytics Platform, vous participerez aux activités suivantes : • Le développement / mise à jour / maintenant du code infrastructure Terraform nécessaire dans Azure et / ou AWS, en conformité avec les règles de sécurité et les pratiques internes. Enrichissement de la documentation a l’attention des utilisateurs • Conception et maintenance de chaînes de de ploiement automatise (CICD) PROFIL De formation Bac+5 en informatique ou équivalent, vous êtes sensibilise s aux concepts de gouvernance, de sécurité et de règlementation de la donne e ou de son exploitation. Compétences requises : • Expérience significative sur le cloud AWS • Bonne connaissance de la méthodologie Agile. • Expérience sur des outil de code augmenté à l’IA • A l’aise dans les interactions avec les parties prenantes. • Force de proposition et désireux(se) d’apprendre en continu. Compétences - Compétences nécessaires (2 ans d’expérience minimum) : Administration de datalake : • Exploitation d’un datalake cloud (AWS) • Gestion des stockages (S3), schémas, lifecycle rule policies • Sécurité, IAM, accès, gouvernance data • Gestion VPC, NSG, ACLs • Fiabilité, performance, coûts Développement de micro services • Python • APIs (REST, event driven) Administration plateforme • Terraform • CI/CD et Infra as Code • GitHub, GitHub Action • Déploiement containerisé (EKS/ECS) • Monitoring et supervision - Langues : Anglais et Français 480 e par jour
Freelance

Mission freelance
Architecte IA (spécialité RAG & web Sémantique)

SILKHOM
Publiée le
Large Language Model (LLM)
Natural Language Processing (NLP)
RAG

3 mois
Nantes, Pays de la Loire
Mission Vous interviendrez sur un projet stratégique de structuration de la connaissance métier , dont les principaux objectifs sont : Concevoir et structurer des ontologies métier robustes . Définir une architecture sémantique permettant d’alimenter et fiabiliser des LLM via des graphes de connaissances. Apporter une expertise critique et stratégique sur les approches hybrides (symbolique + génératif). Transformer des enjeux métiers complexes en POC pertinents et structurés . Alimenter, structurer et fiabiliser les chaînes de connaissance au service d’applications IA explicables. Optimiser l'efficience des modèles (maîtrise des coûts/tokens) au sein d'un environnement souverain. L’IA générative (LLM, RAG, GraphRAG, modèles souverains) est intégrée en surcouche dans une architecture de connaissance maîtrisée (RDF / OWL / SPARQL).
Freelance

Mission freelance
Master Data Management Specialist

Codezys
Publiée le
CRM
Gouvernance
Migration

12 mois
Grand Londres, Royaume-Uni
Objet de l'appel d'offres : Ce projet vise à soutenir la consolidation, le nettoyage et la standardisation des données relatives aux comptes clients provenant de sources legacy multiples. L'objectif ultime est de créer un ensemble de données maître précis et uni, destiné à être migré vers une nouvelle plateforme CRM Salesforce. Cette initiative s'inscrit dans la stratégie du groupe Veolia, alignée sur la vision de devenir une organization largement prête pour l'intelligence artificielle d'ici 2027, dans le cadre du plan GreenUp. Objectifs et livrables Analyse et Profilage des Données : Examiner l'ensemble des données clients existantes, identifier les problématiques de qualité de données, duplications, incohérences et lacunes. Stratégie de Nettoyage des Données : Mettre en œuvre une méthodologie exhaustive de nettoyage, incluant la déduplication, la standardisation, et la validation selon des règles métier prédéfinies. Consolidation des Données : Assister à la fusion des enregistrements clients issus de diverses sources à l'aide d'algorithmes de correspondance et de règles métier pour générer des enregistrements "golden". Préparation à la Migration Salesforce : Structurer les données nettoyées conformément au modèle de données Salesforce et préparer des jeux de données prêts pour la migration. Assurance Qualité : Mettre en place des contrôles de validation, réaliser des audits de qualité de données, et garantir leur exactitude avant la migration. Documentation : Élaborer, suivre et ajuster une documentation détaillée incluant des dictionnaires de données, des règles de transformation, des systèmes de gestion de la qualité et des manuels de migration. Collaboration avec les Parties Prenantes : Collaborer étroitement avec les équipes internes pour résoudre les conflits de données, valider les règles métier, et assurer l'alignement avec les besoins opérationnels. Formation et Transfert de Connaissances : Accompagner les ressources internes concernant les bonnes pratiques de gouvernance de données et la maintenance continue des données. Profil des candidats Les soumissionnaires doivent présenter une expertise avérée dans la gestion de projets de consolidation et de migration de données, avec une expérience significative en environnement CRM, notamment Salesforce, ainsi qu'une forte compréhension des enjeux de gouvernance des données. La capacité à travailler en équipe, à documenter avec précision les processus, et à transférer ses connaissances est également essentielle.
Freelance

Mission freelance
QA Analyst Integration (H/F)

ADSearch
Publiée le
Business Analyst
Cash Management
IA

3 mois
La Défense, Île-de-France
Objectifs et livrables En tant qu’ QA Analyst , vous serez responsable de garantir l’intégration fluide des différents composants et systèmes logiciels. Vous travaillerez en étroite collaboration avec les équipes de développement, les Train Managers, les chefs de projet, les Business Analysts et d’autres parties prenantes afin d’identifier les problèmes d’intégration et d’assurer la qualité et la fiabilité de nos produits logiciels. Responsabilités principalesPlanification des tests Élaborer des plans de test et des stratégies complètes pour les tests d’intégration. Définir les objectifs, le périmètre et les critères de réussite des tests. Identifier et prioriser les cas de test en fonction des risques et des impacts. Exécution des tests Exécuter des tests d’intégration pour valider l’interaction entre différents modules logiciels. Réaliser des tests manuels et automatisés afin d’assurer une couverture complète. Simuler des scénarios réels pour tester le comportement du système dans diverses conditions. Gestion des anomalies Identifier, documenter et suivre les anomalies à l’aide d’outils de gestion des bugs. Collaborer avec les équipes de développement pour reproduire et résoudre les incidents. Vérifier les correctifs et effectuer des tests de régression afin de garantir la résolution des problèmes. Automatisation Mettre en œuvre et maintenir des tests d’intégration automatisés à l’aide des outils internes disponibles. Améliorer en continu la couverture et l’efficacité de l’automatisation. Collaboration Travailler étroitement avec les équipes de développement pour comprendre les points d’intégration et les dépendances. Participer aux revues de conception et de code en apportant une perspective QA. Communiquer efficacement avec les Product Managers, développeurs et autres parties prenantes. Reporting Fournir des rapports de test détaillés et des indicateurs aux parties prenantes. Suivre et communiquer l’avancement, la couverture et les résultats des tests. Signaler en temps opportun les risques et problématiques au management. Amélioration continue Améliorer continuellement les processus et méthodologies de test. Se tenir informé des meilleures pratiques du secteur et des technologies émergentes. Encadrer les ingénieurs QA juniors et partager les connaissances au sein de l’équipe.
Freelance

Mission freelance
Lead Developer Java / VueJS

ESENCA
Publiée le
Google Cloud Platform (GCP)
IA
Java

1 an
Lille, Hauts-de-France
Description de la mission Le Lead Developer intervient sur la conception et le développement de produits digitaux critiques, tout en diffusant une culture d’excellence technique au sein de l’équipe. Missions principales1. Leadership technique & architecture Concevoir et garantir une architecture modulaire (Spring Modulith) Assurer l’isolation des modules et la cohérence des APIs internes Encadrer les choix techniques et accompagner les développeurs 2. Développement backend & frontend Développer des services backend robustes (Java, Spring, Hibernate) Concevoir des interfaces performantes en VueJS Gérer des modèles de données complexes (PostgreSQL, JSONB) 3. Performance & scalabilité Mettre en place et optimiser des mécanismes de cache distribué (Redis) Gérer les problématiques de sérialisation et d’invalidation Assurer la performance globale des applications 4. Qualité & tests Mettre en œuvre des pratiques TDD/BDD Développer des tests unitaires et d’intégration (TestContainers, Wiremock) Garantir la conformité des APIs (OpenAPI) 5. Innovation & IA Intégrer des solutions d’IA générative (Spring AI, Vertex AI) Concevoir des mécanismes de génération de règles métier et d’analyse Participer à l’ingénierie de prompts et à l’intégration applicative Compétences techniques Java (Spring / Spring Modulith) – Expert – Impératif VueJS – Confirmé – Impératif Google Cloud Platform (GCP) – Confirmé – Souhaitable IA Générative (Spring AI, Vertex AI) – Confirmé – Souhaitable Connaissances linguistiques Anglais professionnel – Impératif
CDI

Offre d'emploi
Développeur Fullstack Python/Angular H/F

Lexi INGENIERIE
Publiée le
Angular
Github
Javascript

49 998-58k €
Île-de-France, France
✨ Créé en 2003 et adossé au groupe Smart4engineering depuis 2019, nous accompagnons nos clients dans la conception, la gestion et la sécurisation de leurs infrastructures informatiques, pour les aider à relever les défis structurants d’aujourd’hui et de demain. 🔍 Dans le cadre de projets pour des clients grands comptes, nous recherchons un·e développeur·euse fullstack Python Angular, avec 6 ans d'expériences minimum. 🌟 Contexte Au sein de la DSI Corporates, l'équipe de 20 experts (Data Engineers, Data Scientists, Développeurs Full Stack, Tech Leads et Chef de Projet) a pour mission d’adresser les besoins des métiers du groupe à travers 4 expertises clés : Développement d’outils en mode commando en collaboration directe avec les métiers ou les Product Owners. Mise en œuvre de cas d’usage d’IA Générativ e pour répondre aux besoins métiers. Veille technologique et études d’opportunités pour identifier des solutions innovantes autour de l’IA et de la Data. Développement tactique en mode agile, en proximité forte avec les métiers.. 🎯 Missions principales En tant que Développeur Full Stack Python/Angular , vous serez en charge de : Concevoir des solutions logicielles de bout en bout : Développer des applications performantes et optimisées. Garantir la qualité du code via des tests unitaires et fonctionnels. Contribuer à des projets innovants autour de l’IA Générative : Réaliser des Proofs of Concept (PoC) pour évaluer l’utilisation de l’IA Générative. Concevoir des applications exploitant l’IA Générative pour nos métiers. D évelopper des interfaces utilisateur dynamiques : Créer des interfaces réactives avec Angular, exploitant des données complexes. Collaborer avec les équipes design et produit pour des expériences utilisateur fluides. Concevoir et maintenir des APIs : Développer des APIs avec FastAPI. Assurer la maintenance évolutive et le run des applications existantes. Travailler en étroite collaboration avec les métiers : Comprendre les besoins, synthétiser les informations et proposer des solutions adaptées. Participer à l’insertion des applications dans les processus métiers. Promouvoir les bonnes pratiques : Documenter les projets et partager les bonnes pratiques de développement. 🛠 Compétences techniques requises Langages et frameworks : Python, Angular, JavaScript, SQL. Outils et technologies : GitHub, XL Deploy, Jenkins, Sonar. Expérience en IA Générative : Un plus pour les cas d’usage innovants. Connaissance des fonctions supports bancaires (Risques, Finances, RH, Secrétariat Général) : appreciée. 🧩 Soft Skills attendus Autonomie et capacité à travailler en mode commando. Force de proposition pour contribuer à l’innovation. Esprit d’équipe et collaboration agile. Réactivité et rigueur dans la gestion des projets. Bonne communication pour interagir avec les métiers et les utilisateurs finaux. Ce que nous offrons 💼 Environnement de travail accueillant et stimulant 🤝 Référencements clients grands comptes dans des secteurs variés 📈 Entreprise en croissance : parcours de carrières évolutifs et missions à forte valeur ajoutée 🍽️ Carte Swile pour vos repas 🚇 50 % du titre de transport remboursé 🩺 Hélium pour la mutuelle et prévoyance santé Environnement à dimension internationale 📩 Intéressé·e ? N’hésitez pas à postuler ! Nous étudierons votre candidature avec attention et bienveillance.
CDI
Freelance

Offre d'emploi
ML Engineer/ MLOPS Engineer

Panda Services
Publiée le
API
BigQuery
CI/CD

12 mois
Paris, France
Panda Services est une Entreprise de Services du Numérique spécialisée en Ingénierie Informatique. Dans le cadre du renforcement d’une équipe Data & IA dédiée à la personnalisation de l’expérience utilisateur, nous recherchons un(e) ML Engineer/ MLOPS Engineer Confirmé(e) pour intervenir sur des projets à fort impact, en environnement cloud et production. Localisation = Paris Projet Data & IA en production 🎯 Vos missions Au cœur de la chaîne de valeur Data & IA, vous interviendrez sur : La conception, le développement et la maintenance de pipelines ML robustes et scalables L’ industrialisation des modèles en collaboration avec les équipes Data Science Le déploiement en production des modèles et l’accompagnement des phases d’A/B testing La mise en place de solutions de monitoring (performance, dérive, qualité des modèles) L’ exposition des modèles via des API REST L’optimisation du stockage, de la circulation et de la gouvernance des données Le développement et la maintenance des workflows CI/CD La garantie de la stabilité, sécurité et scalabilité des environnements La collaboration étroite avec les équipes Data, Produit et Tech dans un cadre Agile 🛠️ Environnement technique Vous évoluerez dans un stack moderne orienté cloud : Langages : Python, SQL Cloud & Data : Google Cloud Platform (GCP), Vertex AI, BigQuery, Cloud Run Orchestration & APIs : Airflow, FastAPI, Flask CI/CD & Infra : GitLab CI/CD, Terraform Machine Learning : TensorFlow, Scikit-learn 👤 Profil recherché Minimum 3 ans d’expérience en environnement Data / Machine Learning Expérience confirmée en mise en production de modèles ML Très bonne maîtrise de Python, SQL et des architectures data Solide expérience sur Google Cloud Platform (GCP) Bonnes connaissances en MLOps, industrialisation et Infrastructure as Code Capacité à interagir avec des interlocuteurs techniques et métiers

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

233 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous