L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 130 résultats.
Mission freelance
Ingénieur Data à Niort (3 jours sur site)
NEO SOFT SERVICES
Publiée le
Agile Scrum
Dataiku
Modèle Conceptuel des Données (MCD)
24 mois
400-550 €
Niort, Nouvelle-Aquitaine
Présentation de l’organisation Au sein d’une organisation spécialisée dans les services financiers et l’assurance vie, la Direction des Systèmes d’Information Métier est en charge du maintien en conditions opérationnelles et de l’évolution stratégique du système d’information dédié aux activités d’épargne et de finance. Enjeux stratégiques La valorisation de la donnée constitue un axe majeur de la stratégie de transformation pour les années à venir. Dans ce cadre, l’organisation recherche un Ingénieur Data expérimenté (niveau III) afin de rejoindre l’équipe de développement Data. Le consultant intégrera une équipe Data récemment constituée, avec pour objectif de construire, maintenir et optimiser les plateformes et pipelines de données , afin de garantir la fiabilité, la qualité et l’accessibilité des données pour l’ensemble des métiers de l’entreprise. Missions principales Le consultant Data sera rattaché au chef de projet de l’équipe et interviendra comme contributeur technique clé dans le cycle de vie de la donnée . Il participera activement à la mise en œuvre du modèle Data de l’organisation. Les principales missions seront les suivantes : Conception de pipelines de données (ETL / ELT) Concevoir, développer et optimiser des flux de données robustes et performants. Alimenter les entrepôts de données et les DataMarts. Modélisation des données Participer à la conception et à la mise en œuvre de modèles de données (MCD, modélisation dimensionnelle). Adapter ces modèles aux besoins métiers du secteur financier et de l’assurance. Industrialisation des processus Data Industrialiser les processus de préparation, de transformation et de gouvernance de la donnée. Utiliser des outils spécialisés de data science et de data engineering pour automatiser les flux. Visualisation et reporting Assurer l’intégration des données dans les outils de Business Intelligence pour leur exploitation par les équipes métiers. Maintenance et optimisation Garantir la performance et la qualité des flux de données. Maintenir l’infrastructure data en conditions opérationnelles. Compétences techniques recherchées Profil technique disposant d’une forte appétence pour les outils d’industrialisation et de traitement de la donnée . Compétences clés Niveau de prestation : Niveau III exigé Maîtrise avancée du langage SQL Expérience dans la conception et l’implémentation de processus ETL / ELT Expertise en modélisation de données (MCD, dimensionnelle) Capacité à challenger les solutions techniques , estimer les charges et piloter les phases de qualification Connaissance des outils de Business Intelligence (ex : Tableau ou équivalent) Compétences appréciées Maîtrise d’un outil de data science / data préparation (ex : Dataiku ou équivalent) Expérience sur des outils historiques de reporting ou d’analyse de données Connaissance du secteur assurance / finance Organisation de la mission Présence sur site : minimum 3 jours par semaine Télétravail possible le reste du temps Mission nécessitant une bonne autonomie et une capacité d’intégration dans une équipe Data
Offre d'emploi
Chef de projet digital & IA H/F
HAYS France
Publiée le
12 mois
Le Mans, Pays de la Loire
Dans ce cadre vos missions sont les suivantes : ERP et Processus métiers Recenser et documenter les procédures métiers existantes. Assurer la cohérence entre ERP et besoins métiers. Proposer des améliorations pour optimiser les processus et réduire les tâches chronophages. Accompagnement IA et Copilot Accompagner les collaborateurs à l'usage de Microsoft Copilot Chat et Copilot Pro. Identifier et formaliser les cas d'usage IA adaptés aux métiers. Suivre l'adoption et mesurer les bénéfices des solutions IA. Pilotage de projets Rédiger les cahiers des charges et définir les livrables. Planifier, coordonner et suivre les projets (respect des délais et budgets). Animer les ateliers avec les équipes métiers. Réflexion stratégique CRM Analyser les besoins en gestion de la relation client. Évaluer la pertinence d'un CRM et proposer des recommandations.
Offre d'emploi
Data Engineer H/F
SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
Elasticsearch
6 mois
50k-55k €
400-410 €
Île-de-France, France
Dans le cadre du développement de nos activités, nous recherchons un(e) Data Engineer pour renforcer l'équipe technique de notre client et intervenir sur des projets à forte valeur ajoutée autour de la data. En tant que Data Engineer, vous serez amené(e) à : Assurer le suivi technique des projets : suivi des développements, réalisation de revues de code et respect des bonnes pratiques Gérer les incidents techniques : analyse, résolution et mise en production des correctifs Proposer des améliorations techniques : identification des axes d’évolution et optimisation des performances et de la stabilité des applications Garantir la qualité du code : mise en place de tests unitaires et gestion de l’intégration continue Assurer la documentation technique : maintien à jour de l’architecture et de la documentation
Offre d'emploi
Architecte Data/Snowflake/Cloud/GenAI
OBJECTWARE
Publiée le
Cloud
GenAI
Snowflake
3 ans
40k-71k €
400-550 €
Île-de-France, France
CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Langages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
Offre d'emploi
Data Engineer Kubernetes
KLETA
Publiée le
Helm
Kubernetes
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Kubernetes pour concevoir, optimiser et industrialiser des plateformes de traitement de données déployées sur des environnements conteneurisés. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, containerisation des traitements, optimisation de l’orchestration et de la scalabilité) et guiderez leur mise en œuvre avec Kubernetes et les outils associés (Helm, ArgoCD, Operators, Kubernetes Jobs). Vous serez responsable de la conception et de la fiabilisation des pipelines data exécutés sur Kubernetes, de l’amélioration des performances et de l’intégration de mécanismes de résilience, d’observabilité et de gestion des ressources. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering en environnement Kubernetes. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Mission freelance
Reporting Réglementaire (SQL/Alteryx) Recette & Data
STHREE SAS
Publiée le
6 mois
75001, France
Contexte & objectifs Au sein d'une équipe projet Finance & Risques rattachée à la Direction Architecture & Reporting , vous intervenez sur des travaux de recette et de qualité des données pour des reportings réglementaires d'un groupe bancaire de premier plan. L'objectif : sécuriser la production réglementaire, fiabiliser les flux de données et déployer de nouveaux contrôles de second niveau. Missions principales 1) Déclinaison d'une nouvelle guidance BIDS au format MBDT Organiser la recette (stratégie, jeux d'essais, critères d'acceptation). Exécuter les campagnes de tests en interaction avec les métiers. Réaliser l' analyse de qualité des données avec les communautés concernées et leurs DSI. Suivre les anomalies (qualification, priorisation, plan de remédiation). Animer des ateliers de restitution et produire les synthèses de recette . 2) Recette des dispositifs réglementaires au sein de la squad "Usages" Conduire les TNR et évolutions liées aux nouvelles versions des backbones de données (sourcing des reportings réglementaires). Valider les tirs de certification dynamique dans le cadre d'un projet de mutualisation du SI (tests d'intégration bout‑en‑bout, traçabilité, conformité). Livrables attendus Stratégie et cahiers de recette , cas de tests, jeux de données, PV de validation. Dossiers de contrôle (fiches de contrôle, flowcharts de production, notes de synthèse). Tableaux de bord d'anomalies et plans d'actions. Compte‑rendus d'ateliers et rapports de synthèse pour les parties prenantes. Profil recherché 7 à 9 ans d'expérience en data/recette dans un environnement bancaire/assurance . Maîtrise de SQL et Alteryx ; à l'aise avec des volumétries importantes et la traçabilité de bout en bout. Solide culture fonctionnelle bancaire et reporting réglementaire (ex. AnaCredit, RCH, VDS, SRB‑MREL ). Connaissance des dispositifs de contrôle 1er/2nd niveaux et des meilleures pratiques de qualité de données . Rigueur, autonomie, sens du service et capacité d'animation (ateliers, restitutions, coordination multi‑équipes).
Mission freelance
Consultant DataViz & Support BI
ESENCA
Publiée le
DAX
Google Cloud Platform (GCP)
Looker Studio
3 ans
Lille, Hauts-de-France
Objectif de la mission Accompagner les utilisateurs dans l’exploitation et l’optimisation des outils de Data Visualization, en assurant un support de qualité, l’amélioration des performances et la diffusion des bonnes pratiques. Environnement & contexte Vous intervenez au sein d’une équipe transverse dédiée au support et à l’accompagnement des utilisateurs sur les solutions Data & BI. Votre rôle consiste à traiter les sollicitations (incidents, demandes, conseils) tout en contribuant à l’amélioration continue des outils et des usages. La mission s’articule en deux phases : Phase d’immersion : montée en compétences sur l’écosystème DataViz et les outils en place Phase opérationnelle : contribution active au support utilisateurs et à l’optimisation des plateformes Missions principales 1. Audit & optimisation des performances (Power BI) Analyser les rapports à forte consommation de ressources Identifier les goulots d’étranglement (modèles, requêtes, DAX) Proposer et mettre en œuvre des optimisations techniques Suivre les performances et alimenter les indicateurs de pilotage 2. Support utilisateurs & accompagnement Prendre en charge les incidents et demandes (création, accès, paramétrage) Accompagner les utilisateurs dans la prise en main des outils Améliorer l’expérience utilisateur et la qualité de service Rédiger et maintenir la documentation et les guides 3. Amélioration continue Identifier les demandes récurrentes et proposer des automatisations Contribuer à l’évolution des pratiques DataViz Participer à la structuration du support et à la qualité globale du service Compétences techniques Obligatoires : Power BI (niveau expert) Maîtrise avancée du DAX Analyse de performance (DAX Studio, Server Timings, Query Plan) Importantes : DAX Studio (analyse VertiPaq, optimisation des modèles) Souhaitables : Looker Studio Environnement GCP (notions) Connaissance des outils BI (type SAP BO) Atouts complémentaires : LookML, API, GitHub, Terraform Compréhension des architectures Data modernes Environnement technique Power BI (certification PL-300 appréciée) DAX Studio (VertiPaq Analyzer, Server Timings…) Analyse Storage Engine vs Formula Engine Outils de Data Visualization et de reporting
Mission freelance
Développeur Senior Smart Automation & IA Agentique / Dataiku certifié/ LLM Mesh / Python
Octopus Group
Publiée le
Agent IA
CI/CD
Dataiku
6 mois
520-620 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte dans le domaine de la finance, un développeur sénior en Smart Automation & IA Agentique pour concevoir, mettre en œuvre et industrialiser des solutions avancées d'automatisation des processus. Ces solutions s'appuient principalement sur la plateforme Dataiku et ses fonctionnalités LLM Mesh, qui permettent l'intégration de modèles linguistiques et d'agents IA dans des flux de travail automatisés. L'objectif de l'équipe est de créer des automatisations intelligentes capables d'orchestrer les données, les systèmes d'application et les agents IA afin d'optimiser et de simplifier les processus opérationnels. Principales responsabilités : 1. Concevoir des solutions d'automatisation intelligente : Concevoir des solutions d'automatisation des processus à l'aide de la plateforme Dataiku. Définir des architectures d'automatisation combinant : des pipelines de données l'orchestration des workflows l'intégration avec les systèmes d'application des agents IA Exploiter le LLM Mesh de Dataiku pour intégrer des modèles linguistiques dans les processus automatisés. 2. Développer des solutions d'IA agentique : Concevoir et mettre en œuvre des agents IA capables d'exécuter ou d'assister des tâches au sein de processus automatisés. Développer des workflows intégrant des LLM via Dataiku LLM Mesh. Mettre en œuvre une logique d'orchestration entre : les agents IA les pipelines de données les systèmes d'application. 3. Industrialisation et intégration : Construire et maintenir des pipelines et des workflows automatisés sur la plateforme Dataiku. Intégrer des solutions d'automatisation aux systèmes informatiques existants via des API et des services. Appliquer les meilleures pratiques en matière d'industrialisation : contrôle de version surveillance automatisation du déploiement gouvernance des workflows. 4. Collaborer avec les équipes informatiques : Travailler en étroite collaboration avec les équipes informatiques en charge des systèmes impliqués dans les processus automatisés. Concevoir des mécanismes d'intégration avec les applications existantes. Contribuer à la définition de modèles d'intégration et de normes techniques. 5. Contribuer à la plateforme d'automatisation intelligente : Contribuer à l'évolution des capacités d'automatisation intelligente et d'IA agentique. Définir des normes de développement et d'architecture pour l'automatisation. Accompagner les profils techniques juniors. Promouvoir les meilleures pratiques en matière d'automatisation et d'utilisation des modèles de langage (LLM). Environnement technique : Plateforme Dataiku LLM Mesh API et services d'application Environnements cloud (AWS, Azure ou GCP)
Offre d'emploi
Data Engineer Informatica/Airflow/AWS/DBT
OBJECTWARE
Publiée le
Apache Airflow
AWS Cloud
DBT
3 ans
40k-74k €
400-550 €
Île-de-France, France
Le contexte : L'un des objectifs majeurs du plan de transformation DATA est de développer les applications DATA qui permettent à nos métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI et de déployer des applications destinées à nos abonnés directement (recommandation contenu et offres, etc.). Dans ce cadre, le client a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100To de données par jours: Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique, Socle vidéo, navigation et calcul des audiences, AI pour recommandation des programmes, etc. Feature Store, Moderniser les flux financiers, Content Platform, Mise en place Kubernetes, Plateforme pour le traitement des données CRM et usage, Partager des informations sur les clients à nos partenaires (Netflix, Apple, M6, TF1, etc.), Piloter plus efficacement l'activité des marchés professionnels, Mettre à disposition des applications de data-selfservice. Votre rôle sera de : Administrer, maintenir et optimiser la plateforme Informatica PowerCenter (serveurs, repository, workflows, sessions, etc.), Contribuer activement au décommissionnement en cours d'Informatica via la mise en place d’un Lakehouse AWS (Airflow, DBT, Iceberg, etc.), Concevoir, développer et documenter des workflows data pour alimenter le data warehouse et les systèmes applicatifs, Concevoir, développer et documenter des workflows Lakehouse avec AWS, Airflow, DBT et Python, Identifier et résoudre les problèmes de performance ou de qualité des données, Contribuer au run de la plateforme (analyse des incidents, MEP, support production, etc.), Collaborer avec les équipes Data, BI et Infrastructure pour garantir la cohérence et la disponibilité des données, Former et assister les utilisateurs internes (équipe data, développeurs, MOA, etc.), Proposer des améliorations techniques et de bonnes pratiques sur l’utilisation de la plateforme. Vous maîtrisez Informatica, Snowflake, Airflow, DBT, AWS et aimez les challenges, Vous êtes experts dans le développement de solution d'intégration de données, Vous parlez Anglais couramment, Vous connaissez et maîtrisez les outils JIRA et les méthodes 'agiles' n’ont pas de secret pour vous ! Autonome, ouvert d’esprit et bon communiquant, vous disposez d’une grande curiosité scientifique.
Offre d'emploi
Tech Lead Data Engineer - Databricks / AWS
VISIAN
Publiée le
Apache Airflow
API
AWS Cloud
3 ans
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Mission freelance
Senior Data Analyst Power BI
ARGANA CONSULTING CORP LLP
Publiée le
Amazon Redshift
API REST
AWS Cloud
12 mois
350-400 €
Paris, France
Nous recherchons un Senior Data Analysr Power BI . La mission implique la conception, le développement et la mise en œuvre de solutions analytiques avancées pour répondre aux besoins des métiers. 🎯 Missions principales Accompagner les utilisateurs dans la définition et la formalisation des besoins et des enjeux de restitution et de datavisualisation. Animer des ateliers de type “Design” pour clarifier les besoins et proposer des solutions adaptées. Participer aux travaux de cadrage SI , études d’opportunité et de faisabilité. Recueillir et rédiger les expressions de besoins et spécifications fonctionnelles de solutions analytiques, et valider les livrables. Concevoir et réaliser les restaurations Power BI : rapports, indicateurs et tableaux de bord. Participer à la documentation des règles de sécurité des données et des applications. Élaborer les manuels utilisateurs et les supports de formation aux applications de datavisualisation. Rédiger les spécifications techniques et cahiers des charges pour les POC ou déploiements. Préconiser les adaptations et améliorations des processus existants . 📊 Livrables Développement et déploiement des cas d’usage (cartographies, tableaux de bord, data quality, alimentation du DatalakeHouse…). Documentation des règles de calcul et d’agrégation pour les indicateurs. Rédaction de plans de tests, cahiers de recette et supports utilisateurs . Production et mise à disposition des tableaux de bord . 🛠️ Environnement technique Power BI (Desktop et Service) Databricks, Nifi, RedShift Power Automate, Power Platform Cloud AWS Smart Data, API REST
Offre d'emploi
CTO OPÉRATIONNEL & ARCHITECTE TRANSFORMATION AI - ERP
ABTEKA
Publiée le
ERP
3 ans
57k-60k €
400-500 €
Orléans, Centre-Val de Loire
Localisation : Bassin de Rennes (35) ou Orléans (45) – Hybride Contrat : Management de Transition ou CDI Rattachement : Directeur des Systèmes d’Information (DSI) Posture : Contributeur Individuel Expert / Tech Lead "Hands-on" 1. CONTEXTE ET ENJEUX BUSINESS Le Groupe, acteur industriel de référence, souhaite accélérer sa mutation technologique. Sans encadrement hiérarchique, vous intervenez au cœur de l'équipe de développement pour porter deux enjeux critiques : ● Modernisation de l'Usine Logicielle : Passer d'un mode de développement artisanal à une production industrielle (Agile, DevOps, Qualité). ● Infusion de l'IA : Transformer les méthodes de travail et les services métiers par l'intégration concrète de l'Intelligence Artificielle. 2. MISSIONS PRINCIPALES (100% OPÉRATIONNEL) A. Ingénierie Logicielle & Mentorat Technique ● Développement Critique : Produire du code de haute qualité (Clean Code) sur les briques applicatives majeures (Web, API, intégration ERP). ● Revue de Code & Standards : Établir et faire respecter les normes de développement. Assurer le mentorat technique par l'exemple et la collaboration directe avec les autres développeurs. ● Industrialisation : Configurer et maintenir les pipelines CI/CD. Automatiser les tests et le déploiement pour sécuriser les mises en production. B. Architecture & Urbanisation du SI ● Interopérabilité ERP : Concevoir et développer les flux d'échanges entre l'écosystème ERP et les plateformes Web/Data (stratégie API First). ● Scalabilité : Garantir la robustesse et l'évolutivité des architectures logicielles face à la croissance des volumes de données. C. Lead Transformation AI (Mise en œuvre concrète) ● IA Générative "Productivité" : Paramétrer et optimiser l'usage des assistants de code (type Copilot) au sein de l'équipe pour augmenter la vélocité collective. ● Développement de MVP IA : Identifier, prototyper et déployer des fonctionnalités d'IA (LLM, RAG, automatisation de processus) intégrées aux outils métiers. ● Veille & Souveraineté : Sélectionner les modèles et outils IA les plus adaptés aux contraintes industrielles et sécuritaires du Groupe.
Offre d'emploi
Développeur IA Python (AI-Native Developer)
TS-CONSULT
Publiée le
Azure
Pytorch
Tensorflow
1 an
Île-de-France, France
Bonjour, Actuellement je suis a la recherche d'un profil , Développeur IA Python (AI-Native Developer) Profil recherché : Développeur Python expérimenté, expert en IA/ML et maîtrisant le vibe coding, capable de développer rapidement des solutions innovantes avec assistance IA tout en garantissant la qualité et la maintenabilité du code. Compétences requises Hard Skills : • 5 ans d'expérience minimum en développement Python avec focus IA/ML • Expérience démontrée en vibe coding avec utilisation productive d'outils IA (GitHub Copilot, Cursor, Claude, ChatGPT) • Expertise en frameworks ML/DL : TensorFlow, PyTorch, Scikit-learn, Hugging Face, LangChain • Expérience confirmée avec les LLMs (fine-tuning, prompt engineering, RAG, agents) • Maîtrise des plateformes Cloud (AWS SageMaker, Azure ML, GCP Vertex AI) • Connaissance des technologies MLOps et pipelines CI/CD pour modèles IA • Compétences en data engineering (preprocessing, feature engineering, pipelines de données) • Maîtrise des bases de données (SQL, NoSQL, Vector DBs) • Expérience en développement d'APIs (FastAPI, Flask, REST) • Bonne connaissance de la conteneurisation (Docker, Kubernetes) • Expertise en testing et qualité du code (pytest, unittest, code coverage) • Connaissance des outils de versioning (Git, GitLab/GitHub) • Un plus : Expérience en Computer Vision et/ou NLP Soft Skills : • Esprit critique développé face au code généré par IA • Capacité à décomposer des problèmes complexes et à formuler des prompts efficaces • Curiosité intellectuelle et veille technologique active sur l'IA • Pragmatisme : équilibre entre vitesse de développement et qualité • Rigueur dans la validation et l'optimisation du code • Autonomie et force de proposition • Excellent relationnel et capacité à travailler en équipe • Esprit agile et adaptatif • Capacité à partager ses connaissances et best practices Résultats attendus (Livrables) • Participation aux workshops avec les équipes IT/métiers et les Data Scientists • Développement et optimisation de modèles IA/ML pour les use cases métiers • Intégration et déploiement des modèles en production (APIs, microservices) • Utilisation experte du vibe coding pour accélérer le développement sans compromettre la qualité • Mise en place de pipelines MLOps (entraînement, versioning, monitoring) • Tests automatisés et validation des modèles (performance, robustesse, biais) • Documentation technique détaillée (code, modèles, APIs, prompts réutilisables) • Optimisation des performances (latence, coûts, scalabilité) • Veille technologique et recommandations sur les nouvelles techniques IA • Partage des best practices de vibe coding avec l'équipe Un anglais courant!
Offre d'emploi
Expert IA Python – CDI (H/F)
TOP TECH
Publiée le
Agent IA
Python
1 an
30k-50k €
France
Démarrage : ASAP Contrat : CDI Expérience : +5 ans Dans le cadre du développement de projets innovants autour de l’intelligence artificielle, TopTech recherche un Expert IA Python pour intervenir sur des projets stratégiques au sein d’un environnement métier exigeant. Vous contribuerez à la conception et à la mise en œuvre de solutions d’intelligence artificielle avancées destinées à optimiser les processus métiers liés notamment à la gestion d’actifs, au trading, au risque et au reporting. Vos missions Participer à la conception et à la définition des solutions IA adaptées aux besoins métiers Développer et intégrer des solutions basées sur l’intelligence artificielle et l’IA générative Industrialiser les solutions afin de garantir performance, robustesse et maintenabilité Mettre en place les mécanismes de monitoring et d’évaluation des modèles Contribuer au déploiement et à l’automatisation des solutions Rédiger la documentation technique et les bonnes pratiques Environnement technique Python avancé pour le développement de solutions IA Intégration d’API et SDK IA (OpenAI / Azure OpenAI / Claude / Mistral ou équivalent) Architectures d’ agents IA et automatisation intelligente Outils DevOps : Git, , CI/CD Bases de données : SQL Server 📩 Intéressé(e) ? Envoyez votre CV à :
Mission freelance
Data Analyste (H/F)
Freelance.com
Publiée le
PySpark
1 an
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
2 jours de télétravail non négociable Dans le cadre d’activités liées à l’ analyse de données pour des besoins de contrôle et prévention des risques , l’organisme recrute un Analyste Data afin d’intégrer une équipe spécialisée basée à Aix‑en‑Provence . L’objectif de cette mission est de concevoir et réaliser des analyses avancées à partir de l’ensemble des données du système d’information, afin d’évaluer leur cohérence et leur impact sur des processus métier sensibles . L’intervenant devra participer à la mise en place de cas d’usage orientés détection d’anomalies et comportements atypiques , en croisant différentes sources de données. Il sera également responsable de la création et de la maintenance de produits data réutilisables , tout en appliquant les pratiques internes de qualité, normes et gouvernance des données. Exemples de livrables attendus : Programmes de traitement Big Data Études et analyses documentées Présentations des résultats et recommandations Constructions de KPI et tableaux de bord de synthèse
Mission freelance
EXPERT SPARK DATA ENGINEER H/F
CELAD
Publiée le
1 an
500-600 €
Rennes, Bretagne
Nous poursuivons notre développement et recherchons actuellement un(e) Expert Spark Data Engineer H/F pour intervenir chez un de nos clients. Contexte : La mission s’inscrit dans le cadre d’une solution de traitement de données à des fins de statistiques et de Business Intelligence. Vous interviendrez sur une architecture Data moderne reposant notamment sur Kafka Connect, Spark, Kubernetes et MongoDB, avec des enjeux de volumétrie importants : 350 bases de données 5 000 requêtes par seconde 1 To de données par an L’objectif est de réaliser un audit technique et de proposer des axes d’optimisation de la plateforme existante. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Réaliser un audit et un état des lieux technique de l’existant - Identifier les axes d’amélioration des traitements Spark (batch et streaming) - Optimiser les performances pour les flux temps réel - Définir les recommandations de dimensionnement de l’infrastructure - Proposer des améliorations sur MongoDB (modélisation et structuration des données) - Rédiger un document d’architecture cible et de préconisations
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4130 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois