Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 306 résultats.
Mission freelance
Responsable / Pilotage Plateforme MLOps
CAT-AMANIA
Publiée le
MLOps
Pilotage
6 mois
400-600 €
Paris, France
Dans le cadre d’un programme stratégique autour de la Data Science et de l’Intelligence Artificielle, vous intervenez sur la mise en place et le pilotage d’une plateforme MLOps mutualisée destinée aux équipes Data & IA. Vous aurez pour mission principale d’assurer la construction, l’industrialisation et le fonctionnement opérationnel de la plateforme. À ce titre, vous intervenez sur : Pilotage et organisation Structuration et animation d’une équipe MLOps (Data Engineers, MLOps Engineers…) Mise en place des rituels agiles et suivi d’avancement Définition du plan de charge et allocation des ressources Animation des comités projet et comités de pilotage Pilotage technique Définition de l’architecture de la plateforme en lien avec les architectes et équipes Data Mise en œuvre des pratiques MLOps (CI/CD, monitoring, versionning, traçabilité) Suivi des KPI de performance des modèles et de la plateforme Garantie des exigences de sécurité, gouvernance et conformité réglementaire Industrialisation et adoption Intégration des modèles d’IA dans les processus métiers Réintégration des cas d’usage existants dans le socle cible Accompagnement des équipes Data & IA dans l’industrialisation Animation d’ateliers de partage et bonnes pratiques Communication & reporting Coordination avec équipes Data, Architecture, Sécurité et Opérations Reporting auprès des directions et parties prenantes Production de roadmap, documentation et tableaux de bord
Offre d'emploi
CHEF DE PROJET DATA
UCASE CONSULTING
Publiée le
Git
3 ans
40k-60k €
400-560 €
Paris, France
Fiche de poste – Chef de Projet Data Senior Contexte Dans le cadre du renforcement consultant, nous recherchons un Chef de Projet Data Senior pour piloter des portefeuilles projets à forte visibilité stratégique. L’équipe intervient sur des projets de traitements data complexes, réalisés par des équipes pluridisciplinaires composées de Data Engineers, Data Scientists, architectes et équipes d’exploitation. La mission s’inscrit dans un environnement structuré, avec une forte culture projet et des enjeux qualité/coûts/délais. Objectifs de la mission Piloter des projets Data de bout en bout (étude, chiffrage, réalisation, exploitation) Garantir la livraison des projets dans le respect des engagements (qualité, coûts, délais) Assurer la coordination entre les différentes parties prenantes Intervenir potentiellement sur plusieurs projets en parallèle Missions principales Pilotage projet Construire et piloter le planning projet Participer et animer les instances de gouvernance (COPROJ hebdomadaire, COPIL trimestriel) Assurer le pilotage financier et le suivi budgétaire Garantir la qualité des livrables (pertinence et exhaustivité des tests) Valider les spécifications fonctionnelles avant présentation aux équipes de développement Organisation & Méthodologie Environnement majoritairement Agile (Scrum) Gestion des sprints (2 semaines) basés sur des User Stories Description des spécifications fonctionnelles sous Confluence Suivi et pilotage du backlog sous JIRA Coordination des backlog refinements Coordination & Exploitation Pilotage opérationnel des équipes projet Supervision des déploiements et mise en place des flux Gestion des habilitations et environnements Interlocuteur principal du support applicatif niveau 3 Contribution aux activités d’exploitation Compétences requises Compétences techniques Conteneurisation : Kubernetes Développement : Python Base de données : PostgreSQL Outils CI/CD : GitLab, Jenkins Outils de gestion : JIRA, Confluence Compétences appréciées Outils de supervision : Datadog, Connaissance d’un progiciel de détection fraude / data Bonnes pratiques ITIL Certification Professional Scrum Master I
Offre d'emploi
Data Analyst H/F CDI UNIQUEMENT
Proxiad
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
SQL
Île-de-France, France
Poste de Data Analyst IT au sein des produits Data Usages Retail. Au sein d'une Squad du produit, elle ou il aura en mission - Recueil et analyse des besoins métiers, ainsi que l’évaluation de leur faisabilité (avec les équipes métiers et les banques) - Proposition de solutions et chiffrage des travaux - Rédaction des spécifications fonctionnelles à destination des Data Engineers - Réalisation de tableaux de bord sur Power BI - Suivi des développements et des recettes (planification et coordination des phases de recette avec les métiers et/ou les banques) - Participation à la maintenance du SI (suivi de production et résolution des incidents) - Support d'expertise : fournir un soutien pour des demandes d'expertises ponctuelles.
Mission freelance
ML Platform Engineer Data - Azure(Niort)
Cherry Pick
Publiée le
Azure AI
Azure Data Factory
Azure Synapse
12 mois
550-600 €
Niort, Nouvelle-Aquitaine
La plateforme vise à industrialiser les usages Data et Machine Learning et à accompagner les directions métiers dans leurs expérimentations et produits data science. Le Platform Engineer intervient sur deux axes majeurs : le déploiement de l’infrastructure as code sur le cloud Azure le développement et l’industrialisation de pipelines CI/CD pour les usages Data Science Missions de l’équipe plateforme Assurer le maintien en condition opérationnelle , l’ évolutivité et la maîtrise technique de la plateforme Azure. Accompagner les directions métiers et leurs data scientists dans la réalisation de leurs expérimentations et produits industriels Fournir un support fonctionnel et technique aux équipes métiers
Offre d'emploi
Data & IA Engineer (H-F)
Big Apps
Publiée le
AI
Apache Airflow
Apache Kafka
Paris, France
Big APPS recrute un(e) Data & IA Engineer en CDI pour intervenir sur des projets Data & IA à forte valeur ajoutée. En tant que Data Engineer, vous aurez pour responsabilités de : Concevoir, développer et maintenir les plateformes de données de nos clients, en garantissant l’intégrité, la disponibilité et la sécurité des données Mettre en œuvre des pipelines de traitement de données : ingestion, stockage, transformation et analyse en temps réel Participer à la création et au déploiement de solutions d’intelligence artificielle (machine learning, systèmes de recommandation) Collaborer avec les équipes Data Science pour l’industrialisation des modèles prédictifs Exploiter les environnements Cloud (Azure, AWS, GCP) pour concevoir des solutions performantes et scalables Contribuer à la culture DevOps en automatisant les déploiements et en intégrant des pratiques CI/CD Profil recherché Pour réussir sur ce poste, vous disposez de : Une expérience ou de solides connaissances en Python, Spark, Scala, Kafka, Java Une forte appétence pour l’IA et la Data Science Une expérience avec au moins un Cloud Provider (Azure, AWS ou GCP) Des connaissances en orchestration de données (Airflow, Prefect) et en bases de données SQL / NoSQL Une sensibilité aux bonnes pratiques DevOps Des certifications Data & Cloud appréciées : Azure Data Engineer, AWS Big Data, Google Cloud Data Engineer, DBT, Snowflake, Databricks Environnement de travail - Une équipe soudée, motivée par le partage de connaissances et le développement des compétences. - Des projets variés touchant à des domaines tels que l'IA, la Big Data, le DevOps et le Cloud. - Un environnement stimulant, favorisant l’innovation et l’utilisation des dernières technologies. - La possibilité de travailler avec des experts et de se former en continu sur les technologies émergentes, notamment dans le domaine de l’intelligence artificielle. Si vous souhaitez rejoindre une entreprise où l'innovation et le développement sont au cœur des projets, envoyez-nous votre candidature dès aujourd’hui !
Offre d'emploi
Tech Lead Data (H/F)
AVA2I
Publiée le
Apache Airflow
AWS Cloud
Data Lake
3 ans
Île-de-France, France
Dans le cadre de l’évolution et de l’industrialisation de sa plateforme Data multi-cloud, un acteur majeur du secteur de l’énergie recherche un Tech Lead Data senior . La mission s’inscrit au sein de la plateforme Data Groupe avec des enjeux forts de : Scalabilité Gouvernance et qualité des données Industrialisation des pipelines Fiabilité en production 🎯 Missions principales 🔹 Leadership technique Être le référent technique de la plateforme Data Définir et faire évoluer l’architecture Data Encadrer et accompagner les Data Engineers Participer aux choix technologiques et aux orientations stratégiques 🔹 Build – Industrialisation Concevoir et mettre en œuvre un Data Lake Définir, développer et automatiser les pipelines de données Mettre en place les bonnes pratiques CI/CD Garantir la performance, la robustesse et la scalabilité 🔹 Run – MCO Assurer la supervision des traitements Gérer les incidents et optimiser les processus Maintenir les environnements techniques Automatiser les tâches récurrentes 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP Contexte multi-cloud 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Airflow ⚙ Dev / DevOps Python APIs (FastAPI / Flask) Docker Terraform GitLab CI/CD Linux
Mission freelance
Développeur Python/Angular H/F
Nexius Finance
Publiée le
FastAPI
Python
3 ans
Paris, France
Contexte Vous évoluez au sein d’une équipe transverse dédiée au développement rapide de solutions à forte valeur ajoutée pour différents métiers. Notre positionnement est hybride : Développement “commando” en proximité directe avec les équipes métier Conception de solutions innovantes intégrant l’IA Générative Veille technologique et exploration de nouveaux usages autour de la Data et de l’IA Accompagnement à l’industrialisation des solutions dans un environnement IT structuré L’équipe (une vingtaine de profils : data engineers, data scientists, développeurs full stack, tech lead, chef de projet) fonctionne en mode agile , avec une forte culture d’entraide, d’autonomie et de responsabilité collective. Le client recherche un profil capable de s’intégrer dans cette dynamique, avec un bon relationnel et une vraie capacité à interagir avec des interlocuteurs métiers. Missions: Vous interviendrez en tant que Développeur Full Stack sur des sujets variés mêlant développement applicatif et IA générative. Projet principal: Vous démarrerez sur un chantier stratégique : Développement d’une solution d’évaluation ESG d’entreprises à partir d’un corpus documentaire, intégrant des APIs d’IA générative (LLMs, RAG). Vos responsabilités: Concevoir et développer des solutions logicielles de bout en bout Garantir la qualité du code (tests unitaires et fonctionnels, performance, maintenabilité) Développer des interfaces dynamiques et réactives en Angular Concevoir et exposer des APIs via FastAPI Participer à la réalisation de POCs autour de l’IA générative Concevoir des applications intégrant des modèles de type LLM Assurer la maintenance évolutive et le run d’applications existantes Collaborer avec les équipes produit/design lorsque nécessaire Participer à la mise en place des bonnes pratiques (documentation, standards, qualité) Échanger directement avec les équipes métier pour comprendre, challenger et affiner les besoins Profil recherché:Compétences techniques Très bonne maîtrise d’Angular Solide expérience avec FastAPI et les services web Très bonne maîtrise de Python Connaissance des bases de données relationnelles et non relationnelles Maîtrise des outils de versioning (Git) Bonne compréhension des concepts liés à l’IA générative (LLM, RAG, APIs d’IA) Une expérience sur des projets intégrant de l’IA générative est fortement appréciée.
Mission freelance
Développement Spark/Scala - Bordeaux
Signe +
Publiée le
Apache Spark
Big Data
Scala
190 jours
390 €
Bordeaux, Nouvelle-Aquitaine
Description détaillée Afin de renforcer l'équipe de développement, on recherche un Data Engineer expérimenté et connaissant les technos suivantes : Solutions utilisées : - Socle Big Data (OI1) : o Compute : Yarn o Storage: HDFS (avec chiffrement pour C3), Hive o Sécurité des données: Ranger, Ranger KMS, Ldap, Kerberos Frameworks/langage/outils utilisés : - MoveNAStoHDFS - Moteur d'ingestion v2 - Spark Scala - Dictionnaire de données - Socle Data Science : o DataiKu Automation Frameworks/langage/outils utilisés: - Spark 3 - HQL Prestation sur Bordeaux. 2 à 3 jours de présence sur site requise.
Mission freelance
Data Scientist
Orcan Intelligence
Publiée le
Large Language Model (LLM)
MLOps
Python
5 mois
500-650 €
Paris, France
Nous recherchons un/e Data Scientist pour rejoindre une équipe dynamique en Région parisienne (onsite 1x par semaine). Vous participerez à la conception et à la mise en œuvre de solutions de data science et d’apprentissage automatique à fort impact, contribuant directement à la création de valeur pour l’entreprise. Missions principales Concevoir et implémenter des solutions de data science de bout en bout pour résoudre des problématiques métier. Extraire, nettoyer et analyser de grands volumes de données, notamment à l’aide de Teradata Vantage et SQL . Construire et déployer des modèles de machine learning en Python . Exploiter des feature stores pour le développement et la mise en production des modèles. Explorer et appliquer des approches en IA générative (LLM, transformers) selon les cas d’usage. Définir des stratégies de data science alignées avec les objectifs métier et la feuille de route data de long terme. Communiquer méthodologies, résultats et recommandations à des publics variés (techniques et non techniques). Préparer et présenter des analyses et recommandations claires à différents niveaux (direction, opérationnel, technique). Collaborer avec les data engineers, analystes et experts métier pour intégrer les solutions en production. Contribuer à l’amélioration continue des outils, processus et bonnes pratiques en data science.
Mission freelance
Développeur Mobile React Native avec compétences Data
Comet
Publiée le
Apache Spark
Databricks
React Native
200 jours
490-520 €
Châtillon, Île-de-France
Développeur Mobile React Native / Data Engineer Objectif global Renforcer une équipe projet avec un profil hybride Développeur Mobile React Native / Data Engineer, intervenant à la fois sur une application mobile et sur des traitements data. - Présence sur site : 3 jours par semaine obligatoires Livrables attendus : - Évolutions et corrections applicatives - Code documenté, maintenable et industrialisé - Tests unitaires et rapports de tests - Documentation technique associée Compétences techniques requises : - React Native : Expert – impératif - Databricks : Confirmé – impératif - Spark : Confirmé – impératif - SQL : Confirmé – impératif Description de la mission : Dans le cadre d’un projet de transformation digitale, nous recherchons un profil hybride associant développement mobile et data engineering. La mission porte principalement sur la maintenance évolutive et corrective d’une application mobile développée en React Native. En fonction de la charge de travail sur la partie front, le consultant pourra également intervenir sur la partie back/data, notamment sur : - les pipelines de données, - les notebooks Databricks, - les traitements Spark et SQL sur environnement Cloud (Azure). Activités détaillées : - Analyse - Participation à l’analyse fonctionnelle détaillée des besoins utilisateurs - Contribution aux ateliers de définition des spécifications - Étude de faisabilité technique et estimation des charges Conception et développement : - Contribution au design technique et aux frameworks applicatifs - Développement et prototypage des composants applicatifs - Structuration et exploitation des bases de données - Revue croisée des développements - Documentation technique et préparation à la mise en production - Harmonisation et industrialisation des composants Tests et recette : - Conception et réalisation des tests unitaires - Identification et correction des anomalies - Contribution aux tests d’intégration - Rédaction des rapports de tests Maintenance : - Réalisation de la maintenance corrective et évolutive - Analyse et résolution des incidents en production Profil recherché : - Expérience significative en React Native en production - Solide compétence en Data Engineering (Databricks, Spark, SQL) - Maîtrise des APIs REST - Utilisation courante de Git - Sensibilité aux pratiques DevOps / CI-CD appréciée
Mission freelance
Expert Snowflake(Part Time)
Atlas Connect
Publiée le
Architecture
Data Lake
Microsoft Power BI
4 mois
600-710 €
Île-de-France, France
Le client souhaite mettre en place un socle data sur Snowflake pour améliorer son back-end et fiabiliser son reporting Power BI. Ils ont choisi Snowflake pour sa popularité, mais rencontrent aujourd’hui des problématiques de performance et d’optimisation. L’objectif est de construire un socle data robuste et évolutif, tout en assurant la qualité des rapports destinés au métier. Missions principales : Challenger l’architecture et les développements existants sur Snowflake. Accompagner et superviser l’équipe de développement data (Data Engineers, Architectes). Contribuer directement au développement, à la recette applicative et à la recette détaillée. Optimiser les données pour garantir des reporting fiables et performants. Participer au service classique Snowflake : Data Lake, ingestion, transformation, optimisation. Assurer la montée en compétence de l’équipe sur Snowflake. Profil recherché : Certifié Snowflake (obligatoire). Expérience avérée et pratique sur Snowflake, capable de mettre les mains dans le code et de challenger les équipes. Capacité à travailler avec des profils expérimentés mais moins experts Snowflake. Connaissance et expérience sur la construction de data lakes, optimisation de données et reporting Power BI. Autonomie, rigueur et esprit d’équipe. Environnement : Collaboration avec des Data Engineers et des Architectes. Projets en phase de structuration des use cases : bonne data existante, optimisation et reporting. Mission hybride, flexible, avec interactions sur site et à distance.
Mission freelance
Data Ingénieur Spark - Rennes
Net technologie
Publiée le
Apache Spark
3 mois
Rennes, Bretagne
Dans le cadre de la création d’une nouvelle plateforme Data , le Data Engineer Senior intervient sur l’ensemble du cycle de vie de la donnée . Il conçoit, développe et maintient des pipelines de données batch et streaming en Spark et Python , contribue à la mise en place d’une architecture Lakehouse moderne , et garantit la qualité, la fiabilité et la sécurité des données . Le rôle inclut l’ industrialisation des traitements (CI/CD, DataOps), l’observabilité, la documentation et une forte collaboration avec les équipes techniques et métiers.
Mission freelance
Data Egineer - IDF
Signe +
Publiée le
Apache Spark
Java
6 mois
400-450 €
Paris, France
Nous recherchons pour l'un de nos clients intégrateurs un Data Engineer. Contexte Dans le cadre d’un projet data, nous recherchons un Data Engineer expérimenté pour intervenir sur des problématiques de gestion de bases de données et de traitement de données à grande échelle , au sein d’un environnement international. Missions principales Concevoir, développer et maintenir des pipelines de données fiables et performants Intervenir sur la gestion et l’optimisation des bases de données Développer des traitements data en Java Exploiter et optimiser des traitements Apache Spark SQL Assurer la qualité, la cohérence et la performance des données Collaborer avec les équipes techniques et métiers dans un contexte anglophone Participer aux échanges, réunions et documentation en anglais
Offre d'emploi
Consultant Data (profil Qlik Snowflake)
AGH CONSULTING
Publiée le
Qlik Sense
Snowflake
40k-45k €
Rueil-Malmaison, Île-de-France
Dans le cadre de projets Data chez l’un de nos clients grands comptes, nous recherchons des consultants Data orientés Qlik disposant d’un vernis sur Snowflake , pour renforcer des équipes BI/Data existantes. Missions principales Concevoir, développer et maintenir des tableaux de bord sous Qlik Sense / QlikView Analyser les besoins métiers et les traduire en solutions BI pertinentes Exploiter des données issues de Snowflake (requêtes, compréhension du modèle, optimisation basique) Participer à l’amélioration des modèles de données et des performances des reportings Collaborer avec les équipes Data (BI, Data Engineers, métiers) Environnement technique BI / Data Viz : Qlik Sense / QlikView Data Warehouse : Snowflake (niveau compréhension / usage) Langages & outils : SQL, notions ETL, environnements Data modernes Méthodologie : projets BI, travail en équipe agile ou hybride
Mission freelance
Data Quality Manager
CAT-AMANIA
Publiée le
Databricks
PySpark
Tableau software
1 an
100-500 €
Lille, Hauts-de-France
VOS RESPONSABILITÉS PRINCIPALES Recueillir et évaluer les besoins en matière de qualité des données Accompagner et organiser des ateliers avec les data owners pour comprendre le cycle de vie des données et collecter les exigences en matière de qualité des données (règles, impacts de la non-qualité, parties prenantes, etc.) Interagir et se coordonner avec les autres parties prenantes du projet (Data Steward, Data Engineer, Data Manager…) pour s’aligner sur les contrôles Vérifier et valider la pertinence des règles de qualité des données et leur faisabilité Documenter les règles de qualité dans le catalogue de données (Collibra) Mettre en oeuvre les normes et politique de qualité des données sur votre périmètre pour garantir l'opérabilité des données tout au long de leur cycle de vie dans l'entreprise Concevoir et mettre en œuvre des outils de contrôles et de visualisations de la qualité des données, y compris des alertes pour détecter les erreurs et les incohérences Mettre en œuvre et animer les processus de remédiation afin d’assurer l’amélioration continue du dispositif de qualité des données Implémenter des outils pour automatiser les tâches de contrôle et de correction des données. Etre force de proposition auprès de la Stream Leader Data pour permettre la mise à l’échelle des futurs déploiements Contribuer et participer activement à la communauté des Data Quality Manager
Offre d'emploi
Expert Elastic Stack – Administration & Performance
Ewolve
Publiée le
Elasticsearch
Kibana
Logstash
3 ans
50k-55k €
550-650 €
Île-de-France, France
Nous recherchons un Expert Elastic Stack orienté administration pour intervenir chez un grand compte du secteur bancaire , au sein d’un environnement à très forte criticité et volumétrie, notamment sur des plateformes de cybersécurité. Vous intégrerez une équipe experte en charge de l’évolution, de la performance et de la stabilité d’une infrastructure Elastic à très grande échelle. Description de la mission : Au sein d’une équipe dédiée, vous interviendrez sur une stack Elastic stratégique dont les volumes de données sont en forte croissance (28 To/jour actuellement, avec un objectif de 65 To/jour). Votre rôle ne sera pas uniquement orienté usage, mais principalement administration avancée, optimisation et support expert . À ce titre, vos missions seront : Administrer et optimiser la Stack Elastic (Elasticsearch, Kibana, Logstash, Beats…) Superviser le bon fonctionnement des clusters et analyser les comportements de la plateforme Identifier et résoudre les problématiques de performance complexes (niveau supérieur au support N1/N2 éditeur) Analyser les recommandations éditeur et adapter leur implémentation au contexte existant Intervenir sur l’analyse avancée, pouvant aller jusqu’à l’étude du code source Elastic si nécessaire Accompagner les data engineers dans la préparation et l’injection de données dans Elastic Proposer des améliorations et fonctionnalités au-dessus de la Stack existante Contribuer à l’industrialisation et à la fiabilisation de la plateforme
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
306 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois