Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Spark à Paris

Votre recherche renvoie 42 résultats.
Freelance
CDI

Offre d'emploi
Data Analyst / Data Scientist / Ingénieur IA (H/F)

Publiée le
AI
Alteryx
Apache Spark

1 an
50k-65k €
500-650 €
Paris, France
Télétravail partiel
En tant que Data Analyst ou Data Scientist ou AI Ingineer , vous contribuez aux projets stratégiques de grands comptes bancaires en intervenant sur l’analyse, le traitement et la valorisation des données bancaires et financières. Vos principales missions : Recueillir et analyser les besoins métiers Collecter, structurer et traiter les données chiffrées issues de différentes sources Nettoyer les données (suppression des doublons, gestion des valeurs manquantes, etc.) Développer des algorithmes pour l’exploitation des données (analyse statistique, machine learning) Concevoir et construire des actifs informatiques dédiés à la préparation et à la visualisation des données Développer du code ou des scripts s’appuyant sur des données structurées et non structurées Participer aux phases de tests, recettes et validation des solutions déployées Installer et configurer les outils requis dans le respect du cadre de référence technique Assurer la maintenance évolutive et corrective des solutions déployées, intervenir en support si nécessaire Rédiger la documentation associée (use cases, développements, procédures) Lieu : Paris – Client : Grand établissement bancaire – Type de mission : CDI / Freelance / Portage Démarrage : ASAP – Durée : 3 ans
Freelance

Mission freelance
Responsable DevOps

Publiée le
Apache Airflow
Apache Spark
AWS Cloud

12 mois
400-620 €
Paris, France
Le Responsable DevOps devra encadrer et animer une équipe DevOps. Vous jouerez un rôle clé dans la gestion des produits et plateformes d’infrastructure en assurant leur disponibilité, leur performance, leur évolutivité, leur gestion de l’obsolescence, leur capacité et la maitrise des coûts OnPremise, Cloud ou hybride. Rattaché(e) au responsable de l’entité, vous serez responsable hiérarchique d’une équipe d’une vingtaine de personnes (collaborateurs et prestataires) de profils techniques devops Cloud Public et On Premise. Dans cette évolution organisationnelle, l’organisation hiérarchique est décorrélée de l’organisation opérationnelle. Le responsable DevOps devra donc travailler et s’organiser de façon transverse et étroite avec les Product Owner, le Product Manager et le responsable de l’entité sysops pour assurer le delivery et atteindre les objectifs en fonction des besoins. L’équipe DevOps de l’entité « Plateforme IT » a la responsabilité du build et du run des produits et plateformes d’infrastructures OnPremise et Cloud public.
Freelance

Mission freelance
Data Architecte H/F

Publiée le
Apache Airflow
Apache Spark
BigQuery

210 jours
510-770 €
Paris, France
Télétravail partiel
Rejoignez un leader français de l'audiovisuel pour une mission stratégique d' Architecte Data GCP . Vous accompagnerez la Direction Technique du Numérique dans la consolidation et l'optimisation de sa Data Platform, en interface directe avec les équipes Data (Product Owners, Data Engineers, Data Scientists). Votre rôle sera de structurer l'architecture technique globale, améliorer l'expérience développeur et piloter l'optimisation des coûts cloud. Vos Missions : 🏗️ Architecture Technique Garantir la cohérence de la stack data entre équipes et projets Définir et faire respecter les contrats d'interface (schémas, API, data contracts) Effectuer la veille technologique et évaluer les standards du marché Tester, auditer et introduire de nouvelles technologies Réaliser un audit de l'architecture existante et recommander les améliorations ⚡ Developer Experience Contribuer à la création de modules Terraform et à leur industrialisation Accompagner les équipes dans l'usage de l'Infrastructure as Code Définir les standards CI/CD pour les équipes data (tests, lint, automatisation) 💰 FinOps & Optimisation Mettre en place un suivi budgétaire par équipe Implémenter des outils d'alerting et monitoring (quotas, seuils, dérives) Identifier les leviers d'optimisation et participer à la roadmap FinOps
Freelance
CDI

Offre d'emploi
DATA ENGINEER AZURE DATABRICKS

Publiée le
Azure
Databricks

3 ans
40k-45k €
450-550 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de notre client nous recherchons un data engineer Azure databtricks. Contexte Vous intervenez sur des plateformes Big Data à forte volumétrie , orientées Lakehouse, nécessitant des traitements distribués, performants et hautement scalables. Missions principales Concevoir et maintenir une architecture Lakehouse Databricks Développer des pipelines de données distribués avec Spark Mettre en place des tables fiables et gouvernées via Delta Lake Construire et maintenir des pipelines automatisés avec Delta Live Tables Exposer les données via SQL Warehouse pour les usages BI et analytiques Optimiser les performances, la qualité et la scalabilité des traitements Travailler en étroite collaboration avec les équipes Data Science et BI Stack technique Databricks : Lakehouse, Delta Lake, Delta Live Tables, SQL Warehouse Azure : ADLS Gen2, services d’intégration Azure Langages : Python, SQL, Spark DataOps / MLOps : CI/CD, orchestration, monitoring Architecture : Big Data distribué, streaming et batch Compétences requises Solide expertise Spark / Databricks Maîtrise des concepts Big Data et des environnements à forte volumétrie Très bonne connaissance de Python et SQL Capacité à concevoir des architectures complexes et robustes Profil recherché Formation en informatique / data 4+ ans d’expérience en Data Engineering Big Data Forte capacité d’analyse et de résolution de problèmes À l’aise dans des environnements complexes et exigeants
CDI
CDD

Offre d'emploi
DevOps (Projet Data)

Publiée le
Helm
JIRA
Scrum

18 mois
20k-60k €
Paris, France
Télétravail partiel
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Consultant DevOps Spécialités technologiques : Big Data, gitOps, API Nous recherchons un profil orienté DevOps afin d’intégrer le projet Data de notre client. MISSIONS - Participer au déploiement et à l’exploitation des composants applicatifs sur des environnements Kubernetes / OpenShift - Mettre en œuvre et maintenir les déploiements via Helm, dans une logique GitOps à l’aide de ArgoCD - Développer et maintenir des scripts d’automatisation en Python - Intervenir sur les environnements liés aux stacks Data (Spark, DigDash, Dremio, Airflow, NiFi) en support des besoins du projet Expertise souhaitée Environnements et outils DevOps : - Bonne connaissance de Kubernetes / OpenShift - Maîtrise de Helm - Compréhension et mise en œuvre des principes GitOps - Utilisation de ArgoCD Automatisation : - Connaissance de Python pour l’implémentation de scripts d’automatisation Écosystème Data (premier niveau) : - Spark - DigDash - Dremio - Airflow - NiFi Méthodologie et outils : - Maîtrise des pratiques Agiles (Scrum) - Utilisation de l’outil Jira
CDI
CDD
Freelance

Offre d'emploi
DATA  Engineer GCP

Publiée le
Google Cloud Platform (GCP)
Python
Scrum

18 mois
20k-60k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : L’équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Le stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure MISSIONS : 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 5 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Freelance

Mission freelance
Architecte Technique Senior - SI

Publiée le
Big Data
DevOps
Java

6 mois
Paris, France
Télétravail partiel
a mission s'inscrit au sein du département Architecture d'un organisme majeur de la protection sociale. Nous recherchons un Architecte Technique Senior (15-25 ans d'expérience) pour rejoindre le pôle Accompagnement et Conformité. Le consultant aura pour responsabilité de faire évoluer l'architecture du SI pour répondre aux besoins utilisateurs tout en assurant l'interopérabilité des nouvelles solutions avec l'environnement existant. Il travaillera en étroite collaboration avec l'Architecture d'Entreprise (Urbanistes) et les équipes d'experts techniques (socles, systèmes, réseaux). Objectifs et livrables Objectifs principaux : La mission consiste principalement à accompagner les projets dans la définition de leur architecture technique en cohérence avec les politiques techniques de l'organisme. Détail des activités : Support aux projets (70% de l'activité) : Accompagner l'élaboration des Dossiers d'Architecture Technique (DAT), contribuer à l'instruction et aux revues d'architecture, et réaliser des études d'impact pour les nouvelles technologies. Démarche d'architecture et conformité : Définir des solutions techniques conformes aux standards et assurer la cohérence avec les briques de production (Gateway, Kubernetes, Middleware...). Collaboration et expertise : Valider les solutions avec les experts techniques et suivre les évolutions des socles. Transformation SI : Accompagner les transformations vers le Cloud et les projets BI / Big Data. Environnement technique : Socle applicatif : JAVA (JEE, Spring, Hibernate), API/SOA (REST, SOAP) Infrastructure & Cloud : Kubernetes, Openshift, Ansible, VMWare, Architecture Microservices. Data (Atout) : Big Data, Spark, Kafka, ELK. Bases de données : PostgreSQL, Oracle, Cassandra. Livrables attendus : Dossiers d'Architecture Technique (DAT). Schémas d'architecture (modélisation Archimate). Architecture Decision Records (ADR) pour la traçabilité des choix. Comptes rendus des comités d'architecture. Analyses de marché et supports de veille technologique.
CDI

Offre d'emploi
Data & IA Engineer (H-F)

Publiée le
AI
Apache Airflow
Apache Kafka

Paris, France
Télétravail partiel
Big APPS recrute un(e) Data & IA Engineer en CDI pour intervenir sur des projets Data & IA à forte valeur ajoutée. En tant que Data Engineer, vous aurez pour responsabilités de : Concevoir, développer et maintenir les plateformes de données de nos clients, en garantissant l’intégrité, la disponibilité et la sécurité des données Mettre en œuvre des pipelines de traitement de données : ingestion, stockage, transformation et analyse en temps réel Participer à la création et au déploiement de solutions d’intelligence artificielle (machine learning, systèmes de recommandation) Collaborer avec les équipes Data Science pour l’industrialisation des modèles prédictifs Exploiter les environnements Cloud (Azure, AWS, GCP) pour concevoir des solutions performantes et scalables Contribuer à la culture DevOps en automatisant les déploiements et en intégrant des pratiques CI/CD Profil recherché Pour réussir sur ce poste, vous disposez de : Une expérience ou de solides connaissances en Python, Spark, Scala, Kafka, Java Une forte appétence pour l’IA et la Data Science Une expérience avec au moins un Cloud Provider (Azure, AWS ou GCP) Des connaissances en orchestration de données (Airflow, Prefect) et en bases de données SQL / NoSQL Une sensibilité aux bonnes pratiques DevOps Des certifications Data & Cloud appréciées : Azure Data Engineer, AWS Big Data, Google Cloud Data Engineer, DBT, Snowflake, Databricks Environnement de travail - Une équipe soudée, motivée par le partage de connaissances et le développement des compétences. - Des projets variés touchant à des domaines tels que l'IA, la Big Data, le DevOps et le Cloud. - Un environnement stimulant, favorisant l’innovation et l’utilisation des dernières technologies. - La possibilité de travailler avec des experts et de se former en continu sur les technologies émergentes, notamment dans le domaine de l’intelligence artificielle. Si vous souhaitez rejoindre une entreprise où l'innovation et le développement sont au cœur des projets, envoyez-nous votre candidature dès aujourd’hui !
Freelance

Mission freelance
Expert IWS / TWS Tivoli H/F

Publiée le
IBM Tivoli Storage Manager (TSM)

2 ans
400-600 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Expert IWS / TWS Tivoli H/F à Paris, France. Les missions attendues par le Expert IWS / TWS Tivoli H/F : Assurer et garantir le bon fonctionnement des infrastructures d'ordonnancements et d'orchestration Participer aux projets d'évolutions des infrastructures d'ordonnancements et d'orchestration Être l'interlocuteur privilégié de l'outil d'ordonnancement d'ordonnancements et d'orchestration Proposer des solutions d'industrialisations, de fiabilisations et d'améliorations des infrastructures d'ordonnancements et d'orchestration Assurer le support N3 Ouvertures et suivis des incidents auprès des éditeurs respectifs de partenaires (hébergeurs, …) Gestion du backlog IWS pour suivre les problèmes en cours sur tous les environnements Suivre la montée la montée en charge de IWS dans le cadre d’une migration de data center Assurer le N3 sur les outils d’ordonnancement Piloter les patchs, mep et montées de version de IWS Suivre la migration Autosys Boadcom => Vtom Accompagner les équipes achats autour de l’utilisation de ILMT Environnement technique: ( Développement : Scala, SBT Infrastructure : Docker, Kafka, VmWare, DC/OS, FreeIPA Applicatif : Akka, Kafka, Cats, API Rest, ElasticSearch, RocksDB, Spark, Mesos, Couchbase, Hadoop/HDFS, Hive, PostGreSQL Outils : GIT, Jenkins, Nexus, Promotheus, Grafana, Ansible DataViz : Kibana (ELK), Data Exploration : DataIku, Zeppelin…
Freelance

Mission freelance
Data Engineer cloud Google (GCP)

Publiée le
API
Google Cloud Platform (GCP)
Python

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Notre stack technique est principalement constitué de Python, Spark, SQL, BigQuery, Dataplex pour la qualité des données, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. La stack inclut aussi d’autres services de la Google Cloud Platform. mission de l’ équipe 1. Déployer les datasets normés sur un ou plusieurs des data domain 2. Accompagner les utilisateurs des datasets normés dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets MISSIONS : Dans un premier temps, la prestation consiste à : • Concevoir et réaliser les contrôles qualité sur les données de la plateforme Data, en exploitant Dataplex Universal Catalog • Industrialiser ces contrôles grâce à Terraform et Terragrunt • Concevoir et réaliser les indicateurs nécessaires au pilotage de la qualité des données • Concevoir et réaliser la remontée de ces indicateurs dans notre data catalog Collibra En marge de l’objectif de livraison de livraison précédent et en interaction avec les membres de l’équipe, la suite de la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Participer aux initiatives de gouvernance des données en développant les contrôles de qualité des données • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 5 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant des flux avec l’API Collibra • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques • Junior : moins de 3 ans d’expérience significative dans le type d’expertise demandé • Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé • Sénior : plus de 5 ans d’expérience significative dans le type d’expertise demandé
Freelance

Mission freelance
Mission Freelance – Analytics Engineer / Data Engineer (H/F)

Publiée le
Azure Data Factory
Databricks
Scala

3 mois
100-550 €
Paris, France
Télétravail partiel
Nous recherchons un freelance Analytics Engineer / Data Engineer pour intervenir sur un projet Data transverse d’envergure , au sein d’un grand groupe français du secteur médias & digital . Le projet vise à centraliser, harmoniser et fiabiliser les données de diffusion publicitaire digitale (impressions, chiffre d’affaires, performance, etc.) afin de fournir un reporting unifié et fiable selon différentes dimensions métiers (canaux de vente, équipes commerciales, annonceurs, origines des revenus…). Au sein d’une équipe Data expérimentée, vous interviendrez sur les missions suivantes : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory Développer et optimiser des flux de transformation de données en Spark SQL Maintenir et faire évoluer des pipelines de traitement en Scala (part marginale) Développer et maintenir des indicateurs de qualité de données (KPI data) Participer au refactoring du code existant afin d’améliorer performance et maintenabilité (réécriture en DBT ) Garantir la qualité du code et le respect des standards de développement Mettre en place des tests unitaires et contribuer à la fiabilité des traitements Participer au monitoring des solutions Data Digital Produire les livrables attendus : code source, documentation et indicateurs qualité
CDI

Offre d'emploi
Développeur Data/BI (Databricks - Power BI)

Publiée le
Agile Scrum
Databricks
DAX

40k-52k €
Paris, France
Dans le cadre d'un projet au sein de notre Data & IA Fabric, nous recherchons un développeur Data/BI (Databricks - Power BI) pouvant assister le Delivery Lead et la Tech Lead du projet pour : La mise en place des flux de données La réalisation des chaines d’alimentation d’intégration des données et autres fonctionnalités DATA du projet. La modélisation des données dans la base de données et l’infrastructure Databricks Participation aux rituels Agiles (Daily, Sprint Review, Sprint Planning, Démo) La mise en place de l’automatisation à l’aide des outils préconisés lors de la conception La recette unitaire et d’intégration La préparation de la livraison et la mise en production La construction de visuels PowerBI Expérience de plus de 2 ans dans la modélisation de données dans des systèmes décisionnels Expérience de réalisations et participations à des projets Data significatifs Expérience indispensable des bases de données relationnelles et du requêtage via du langage SQL Expérience indispensable dans la construction de visuels PowerBI et de son langage de programmation (DAX) Expérience appréciée sur le développement d’alimentation avec Spark et/ou Databricks Ce projet est réalisé en utilisant une méthodologie agile SCRUM. Paris 12 – 3 jours de TT Rythme hybride
Freelance

Mission freelance
DATA ENGINEER GCP

Publiée le
Google Cloud Platform (GCP)

1 an
Paris, France
Télétravail partiel
EXPERIENCE DANS LES MEDIAS IMPERATIF Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. Prestation de cette équipe : 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestations attendues : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine
CDD
CDI

Offre d'emploi
Développeur Dataiku Expérimenté

Publiée le
Dataiku
Python
UNIX

18 mois
20k-40k €
Paris, France
Télétravail partiel
CONTEXTE Experience : 7 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Data management Dans le cadre d’une mission pour un grand compte bancaire, nous vous partageons le besoin suivant pour un développeur Dataiku Expérimenté : MISSIONS Contexte de la mission : Dans un contexte de convergence Risques/Finance visant à améliorer la production des reportings reglementaires (Finrep/corep/surfi..), le programme a pour objectif d’avoir un outil unique pour la collecte / préparation des données et des reportings. La prestation consiste à travailler sur la dimension Collecte du projet, afin de développer de nouvelles fonctionnalités ou d’améliorer des fonctionnalités existantes identifiées, avec une méthodologie « en V ». La mission pourra évoluer vers un rôle de référent sur ces sujets, en fonction de l’acquisition et de la maîtrise des sujets. Livrables / Résultats attendus : - Développer des fonctionnalités - Collaborer avec l’équipe produit/métier pour concevoir au mieux les fonctionnalités - Être en mesure de rédiger de la documentation fonctionnelle ou technique - Décliner les tickets des nouvelles fonctionnalités pour redispactch aux autres développeurs - Améliorer les pratiques de développement et de test - Tester et apprendre de nouvelles technologies, et partager vos connaissances avec le reste de l’équipe - Participer à l’esprit d’équipe via la montée en compétence des développeurs juniors L’équipe est organisée actuellement en mode agile Scrum. Expertise souhaitée 5/7 ans d'expérience Environnement technique à maitriser : - Dataiku (certifications souhaitées) - Python - Base de données relationnelle (db2, oracle…) et SQL - Datastage - Spark - Unix
CDI

Offre d'emploi
Data Engineer - CDI

Publiée le
Azure
Databricks
DBT

Paris, France
Télétravail partiel
L'ENTREPRISE La fabrique Vingtcinq accompagne depuis 2010, les ETI et grands comptes de l’industrie et du service dans leur transformation digitale (Applications web, digitalisation des processus interne, data engineering, .. ). Vingtcinq est aujourd'hui reconnue non seulement pour la qualité d'exécution de ses développements , mais aussi pour le cadre de travail offert à ses collaborateurs . Le bien-être de notre équipe est une priorité , et chacun contribue activement à la vie de l'entreprise et à son développement . Forte de son expertise dans le développement d'outils digitaux, Vingtcinq aspire désormais à se démarquer dans le domaine de la data . Cette nouvelle Business Unit, en pleine expansion, se structure grâce à l'esprit entrepreneurial de ses membres. Pour soutenir cette croissance, nous recherchons des esprits audacieux pour rejoindre cette aventure et faire rayonner Vingtcinq sur ce nouveau secteur, pour cela, nous recherchons un(e) data engineer pour renforcer notre équipe . Tu travailleras en étroite collaboration avec l’équipe Data pour répondre aux enjeux de nos clients et développer l’offre Vingtcinq. LA MISSION Mission Principale : Data Ingestion & Transformation (70%) Créer, maintenir et optimiser des pipelines de traitement des données (ETL/ELT) pour collecter, charger, stocker, nettoyer et transformer les données brutes provenant de différentes sources (bases de données, API, fichiers, etc.). Automatiser l'intégration / l’ingestion de données (data warehouses, data lakes et lakehouses) Administrer et configurer des systèmes de stockage de données (datalake, datawarehouse ou lakehouse)(Assurer la scalabilité et la résilience des systèmes de données Travailler avec des outils et technologies pour la gestion des données à grande échelle. Optimiser la performance des base de données Garantir la qualité et l'intégrité des données Surveiller et optimiser des flux de données Mission secondaire : Visualization & technical guidance (30%) Travailler avec l’équipe Business/PM pour enrichir le brief et créer la traduction technique appropriée, être à l'aise pour parler à l'équipe business Conseils pour la résolution de problèmes : En tant qu'ingénieur de données expérimenté, fournir des conseils sur la bonne méthodologie d'implémentation technique des outils internes en accord avec l’équipe Data office Maintenir les tableaux de bord existants (améliorations) Soutenir l'effort de documentation des données en collaboration avec les responsables des données. COMPÉTENCES REQUISES Maîtrise de l’environnement Azure Environnement Cloud & Data : Azure Data Factory (ingestion, orchestration), Azure Databricks (traitements Spark), Azure Data Lake Storage Gen2 Bases de données & modélisation : Azure SQL Database, Modélisation analytique (schéma en étoile, faits/dimensions) Programmation : SQL avancé, Python (Spark, pandas), Scala (apprécié) Sécurité & gouvernance : Azure AD / IAM, Gestion des accès et des données sensibles, Data Catalog (Purview ou équivalent) Industrialisation & supervision : CI/CD : Azure DevOps ou GitHub Actions, Monitoring : Azure Monitor, Log Analytics Business Intelligence : Power BI LE PROFIL RECHERCHÉ Formation Bac+5 ou équivalent vous justifiez d’une expérience de 3 à 5 ans en tant que Data Engineer . Tu es autonome, proactif et as un excellent sens de la communication . Tu es apte à analyser les problèmes de données et à concevoir des solutions techniques adaptées . Tu recherches une structure à taille humaine , avec un fort esprit d’équipe Niveau d’ anglais avancé attendu LES PLUS DE L'OFFRE Nous avons le goût de la qualité et du travail bien fait Nous t’accompagnerons dans ta montée en compétences Chez VingtCinq, nous accordons une importance particulière à l’esprit d’équipe et au bien être de nos collaborateurs LE PROCESSUS DE RECRUTEMENT Entretien avec le DG de VingtCinq Test technique Entretien avec le Directeur Technique
Freelance
CDI

Offre d'emploi
AI Engineer

Publiée le
Machine Learning
Pytorch
Tensorflow

1 an
40k-45k €
400-570 €
Paris, France
Télétravail partiel
Mission AI Engineering (expertise avancée en IA traditionnelle et Gen IA), pour l'accompagnement de nos équipes IT dans la conception, le développement et l'intégration de nos cas d'usages IA en production. Mise à l'échelle des modèles développés, en garantissant leur performance, leur sécurité et leur monitoring dans l'environnement de production. Responsabilités Analyse en profondeur des besoins métier pour concevoir des solutions d'IA sur mesure, performantes, évolutives et économiquement viables. Interaction avec les équipes IT et Opérations pour l'intégration et la maintenance des modèles. Instauration d'une culture de partage de connaissances en IA au sein de l'IT, en organisant des ateliers, des formations et des sessions de mentorat pour faire monter en compétence les équipes. Évaluation régulièrement les solutions d'IA déployées pour en mesurer l'impact, proposer des améliorations continues et assurer une gestion rigoureuse des coûts associés. Support technique et recommandations stratégiques aux équipes projets, tout en veillant à l'optimisation des coûts et à l'efficience des ressources déployées. Garantie de la conformité aux standards de sécurité et aux bonnes pratiques de développement. Compétences techniques Expertise en apprentissage automatique & profond (Machine Learning, Deep Learning...), en traitement du langage naturel (NLP, LLM, Transformers, …), et sur les domaines/technologies pertinents de la Gen IA (RAG, Agent IA, parseur des documents, évaluation et monitoring, etc…) Maîtrise des langages de programmation (e.g. Python...) et des frameworks d'IA (TensorFlow, PyTorch...) et de GenIA (LangChain, LangGraph…) Outils de gestion de données et de modélisation (SQL, NoSQL, Hadoop, Spark, etc.), ainsi que la capacité à développer et à déployer des solutions d'IA dans des environnements de production à grande échelle. Pratiques pour le déploiement comme le MLOPS/GenIA OPS, pour la surveillance et la maintenance des systèmes d'IA en production, garantissant ainsi une transition fluide et efficace du développement à la production. Principes de l'ingénierie logicielle, y compris le développement agile, l'intégration continue et le déploiement continu (CI/CD). Environnements cloud (IBM en particulier) Autres compétences Métier d'Asset Management Aptitude à communiquer des concepts techniques complexes de manière claire et pédagogique, facilitant ainsi le transfert de connaissances. Résolution de problèmes complexes.
42 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous