Trouvez votre prochaine offre d’emploi ou de mission freelance Scala

Votre recherche renvoie 42 résultats.
Freelance

Mission freelance
DEVELOPPEUR OT

HAYS France
Publiée le
Cybersécurité
Rockwell
SCADA

1 an
400-500 €
Molsheim, Grand Est
Nous recherchons un expert en cybersécurité OT afin d’accompagner nos initiatives de sécurité industrielle, de cyber‑résilience et de conformité réglementaire dans un environnement pharmaceutique critique soumis aux exigences GMP . Le prestataire interviendra au cœur d’un système d’automatisation basé sur des technologies Rockwell et SCADA, avec un rôle majeur dans l’amélioration de la posture de sécurité et la préparation aux audits réglementaires. Missions principales Réaliser des analyses d’écart (CRA Gap Assessment) et proposer des plans de remédiation adaptés aux environnements OT. Définir et faire évoluer l’ architecture OT selon les bonnes pratiques (modèle Purdue, zones & conduits, DMZ). Évaluer et recommander des mesures de durcissement de la sécurité pour les automates Rockwell et les systèmes SCADA iFIX. Conduire des analyses de risques OT , exercices de threat modeling et évaluation de la criticité des actifs. Définir des baselines de configuration sécurisée pour serveurs OT, postes d’ingénierie et infrastructures associées. Assurer la conformité GMP & FDA 21 CFR Part 11 (audit trail, RBAC, gestion des accès, enregistrements électroniques). Contribuer à la documentation CSV (URS, NFR, FS, DS, IQ, OQ, PQ) concernant les exigences de cybersécurité. Proposer des processus de patch management et de gestion des vulnérabilités compatibles avec les environnements OT validés. Fournir un support d’expertise et de documentation en vue des audits, inspections réglementaires et revues qualité .
Freelance
CDD

Offre d'emploi
Architecte Big Data / Expert Databricks (H/F)

SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

6 mois
75k-90k €
700-750 €
Île-de-France, France
Dans un contexte d’accélération des projets data et de modernisation des plateformes analytiques, notre client recherche un Architecte Big Data / Expert Databricks H/F; Votre rôle sera clé pour concevoir des architectures data modernes, optimiser les performances et les coûts, tout en accompagnant les équipes dans leur montée en compétences. Vos missions Concevoir des architectures Big Data / Modern Data Stack robustes et scalables Réaliser des études techniques et cadrages des besoins data Définir et valider des architectures data sur Databricks et AWS Conduire des audits de performance et de code Produire des dossiers d’architecture (6 à 8 par an) Élaborer des supports de formation (10 à 12 par an) Animer des sessions de formation et de montée en compétences Rédiger des comptes-rendus d’audit (4 à 6 par an) Conseiller sur les bonnes pratiques d’optimisation des coûts et des performances
Freelance

Mission freelance
OT Développeur H/F

HAYS France
Publiée le
Java
Méthode Agile
SCADA

24 mois
400-530 €
Molsheim, Grand Est
Notre client, entreprise spécialisée dans les sciences de la vie, notamment dans la purification de l’eau et les produits chimiques, recherche un OT Développeur pour intervenir sur des projets R&D innovants. Dans le cadre de cette mission, vous interviendrez sur les missions suivantes : Participer à la conception et à la mise en œuvre des solutions Analyser les besoins métiers et proposer des solutions adaptées Développer, maintenir et améliorer les applications existantes Collaborer avec les équipes techniques et fonctionnelles Garantir la qualité, la performance et la fiabilité des livrables
CDI
CDD

Offre d'emploi
Data Engineer Big Data / BI 

adbi
Publiée le
Apache Hive
Apache Spark
Cloudera

12 mois
38k-46k €
Paris, France
Data Engineer Big Data / BI – Scala, Spark, SQL, Hive, Cloudera (H/F) 💼 Contrat : CDI 🏢 Entreprise : ADBI – Expert en Data Management et transformation digitaleContexte du poste Dans le cadre de l’évolution de ses plateformes Big Data et décisionnelles, ADBI recherche un(e) Data Engineer pour intervenir sur des projets d’intégration, de transformation et d’industrialisation de données. Vous participerez à la migration et à l’optimisation d’environnements Big Data (Cloudera, Spark, Hive, Scala) et contribuerez à la mise en place de solutions BI performantes et scalables.
CDI

Offre d'emploi
Data Engineer Databricks

ASTRELYA
Publiée le
Amazon S3
Ansible
Apache Spark

Noisy-le-Grand, Île-de-France
Astrelya est un cabinet de conseil franco‑suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 expert passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre mission : En tant que Data Engineer Databricks vous participez à la définition de l’architecture de la data platform et du Datawarehouse/Data Lake. Concevoir et développer des nouvelles fonctionnalités sur des applications hébergées par les plateformes Data. Développer et maintenir des pipelines de données performants (batch & streaming) et participer à toutes les étapes de traitement des données du niveau bronze au niveau gold. Garantir la sécurité, la robustesse et la fiabilité des pipeline de données en veillant aux enjeux de performance, d’accessibilité et d’intégrité des données. Contribuer à l’implémentation d’un Data Lab pour accélérer les usages Data & IA. Mettre en place et industrialiser des chaines CI/CD. Participer aux mises en production et au support en cas d’incident majeur. Travailler aux côtés de Data Product Owner, Data Architect et de BI & Analytics Engineer. Participer aux cérémonies agiles organisées par la squad : daily, sprint planning, sprint review, sprint rétrospective Effectuer une veille technologique continue sur de nouvelles solutions et tendances Data.
Freelance

Mission freelance
Data Analyst – Data produit & trafic web - Paris (H/F)

EASY PARTNER
Publiée le
Apache Spark
Microsoft Power BI
PL/SQL

1 an
400-430 €
Paris, France
Dans le cadre de projets liés à l’analyse de la performance digitale (web et mobile), un acteur du secteur digital recherche un Data Analyst . Les missions portent sur l’analyse des données de trafic et des usages utilisateurs. Missions Analyser les données d’usage (web / mobile / trafic) Construire et maintenir des dashboards métiers (Power BI, Tableau) Suivre les KPIs produits et business Collaborer avec les équipes produit et techniques Participer au reporting et à la prise de décision Power BI tracking web outils analytics (type GA, dataLayer…) SQL avancé Power BI / Tableau Python
Freelance

Mission freelance
Spécialiste données industrielles / Aveva PI

Signe +
Publiée le
MQTT (Message Queuing Telemetry Transport)
SCADA

6 mois
450-520 €
Pau, Nouvelle-Aquitaine
Bonjour, Nous recherchons pour l'un de nos clients un spécialiste données industrielles. La compétence AspenTech Inmation est vraiment un plus mais pas obligatoire. Le vrai plus c’est si la personne connaît très bien la solution Aveva PI et qu’elle souhaite découvrir Inmation (qui est un concurrent de Aveva PI). Contexte de la mission Le Spécialiste AspenTech Inmation intervient comme référent technique dans un environnement industriel complexe, multi-sites et fortement contraint par les exigences OT/IT, la cybersécurité et la disponibilité opérationnelle. Au sein de TotalEnergies, il assure un rôle central dans la mise en œuvre de la plateforme Inmation, utilisée comme couche d’unification, de contextualisation et de distribution des données industrielles en temps réel. La mission implique une articulation étroite avec les systèmes d’automatisme, SCADA, historiens et infrastructures réseau industrielles, tout en respectant les standards du Groupe et les principes de défense en profondeur. L’objectif est de garantir la cohérence des modèles d’objets, l’homogénéité des pratiques, la qualité des flux et la performance globale de l’architecture, tout en tenant compte de l’écosystème existant (notamment AVEVA PI) et de la trajectoire de convergence vers des solutions data plus intégrées. Le spécialiste contribue aux ateliers techniques avec l’éditeur, aux revues d’architecture et aux analyses d’usage pour aligner les choix techniques sur les priorités métiers : surveillance en temps réel, performance énergétique, maintenance conditionnelle, optimisation process, réduction des émissions, amélioration de la fiabilité des actifs.
Freelance

Mission freelance
247568/développeur SCADA Panorama à LYON

WorldWide People
Publiée le
SCADA

3 mois
Lyon, Auvergne-Rhône-Alpes
développeur SCADA Panorama à LYON développement SCADA Panorama afin d’assurer la maintenance applicative du Poste Opérateur Objectifs et livrables 1. Concevoir et développer les évolutions fonctionnelles du SCADA Panorama (éditeur CODRA). 2. Concevoir, maintenir et faire évoluer le configurateur PERSIST développé en C# 3. Mettre en oeuvre les tests unitaires automatisés du configurateur C#. 4. Intégrer un outil de mesure de couverture de code (ex : SonarQube) et améliorer la qualité logicielle. 5. Assurer la Maintenance en Condition Opérationnelle (MCO) du Poste Opérateur et des applications associées (outils de configuration, client API, client SNMP). 6. Optionnellement : Participer à l’industrialisation de la chaîne d’intégration et de déploiement (CI/CD) 7. Optionnellement : Participer à la mise en place des tests automatisés graphiques du SCADA. L’architecture de l’application s’appuie sur les technologies suivantes : • Progiciel SCADA PANORAMA (v. Panorama Suite 2020 – PS20 / PS25) de l’éditeur CODRA • Scripts et fonctions type Classe Utilisateur PANORAMA développés en C# • Protocole de communication : SNMP , IEC61850 • Interface Web en C# : API REST • DevOps : Git, Jenkins, Sonarqube • Système d'Exploitation Microsoft (Windows 10 et Windows Server) • Base de données SQL Server Compétences demandées Compétences Niveau de compétence DOCKER Avancé xml Avancé API REST Avancé SNMP Avancé AGILE Élémentaire codra panorama Confirmé SONARQUBE Avancé DEVOPS Avancé c# Confirmé TCP/IP Élémentaire
Freelance

Mission freelance
Data Engineer – Scala / Spark - Solution digitale - Paris (H/F)

EASY PARTNER
Publiée le
Apache Airflow
Apache Kafka
Apache Spark

1 an
400-500 €
Paris, France
Contexte Dans le cadre du renforcement de ses équipes data, un acteur du secteur digital recherche un Data Engineer pour intervenir sur des problématiques de traitement et d’exploitation de données à grande échelle. Missions Concevoir et maintenir des pipelines de données (batch & streaming) Gérer l’ingestion, la transformation et la qualité des données Développer sur des environnements Big Data (Spark, Kafka) Mettre en place et optimiser les workflows (Airflow) Participer à l’industrialisation des traitements (CI/CD) Collaborer avec les équipes Data, DevOps et métiers Stack technique • Scala / Python / SQL avancé Spark / PySpark, Kafka Airflow (ETL / orchestration) Cloud : Azure et/ou AWS Git, CI/CD
Freelance

Mission freelance
Data Analyst Opérations & Maintenance

NEXTWYN
Publiée le
Azure Data Factory
BI
Big Data

3 mois
Paris, France
Nous recrutons un·e Data Analyst Opérations & Maintenance (Paris) Dans le cadre d’un projet stratégique au sein d’un grand groupe industriel international, nous renforçons notre pôle Data & IA et recherchons un Data Analyst O&M capable de valoriser des données issues de réseaux industriels complexes (IoT, supervision, maintenance, signalisation…). 🎯 Votre mission : transformer des données opérationnelles en insights concrets pour améliorer la performance, la supervision des actifs, la sécurité et la sobriété énergétique. Vous interviendrez sur la conception de tableaux de bord (Qlik) , l’ analyse de données , la qualité , la documentation , et la collaboration avec les équipes métiers dans un environnement international. 🔍 Vos responsabilités Recueillir et prioriser les besoins métiers avec les PO, CSM et équipes opérationnelles. Explorer, auditer et qualifier les données issues des systèmes industriels. Concevoir et développer des tableaux de bord (Qlik principalement). Standardiser et rationaliser les modèles de données avec les Data Managers. Documenter les règles de gestion et maintenir le dictionnaire de données. Réaliser les recettes fonctionnelles et mettre en place des plans de tests data.
Freelance
CDI

Offre d'emploi
Data Engineer Python / Scala / Cloud

Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
API REST

12 mois
Paris, France
Contexte Dans le cadre du développement d’une Data Marketplace interne pour un grand groupe international du secteur de l’énergie, nous recherchons un Data Engineer expérimenté afin de renforcer une équipe produit data. La plateforme permet de centraliser l’ensemble du parcours data des utilisateurs : découverte de données, data quality, data governance, transformation de données, monitoring de pipelines et BI. Elle sera progressivement déployée auprès de plusieurs milliers d’utilisateurs dans un environnement international. Le consultant interviendra sur la conception et l’évolution des pipelines de données ainsi que sur l’optimisation de la qualité et de la performance des flux. Missions Développement et maintenance de pipelines de données en Python et Scala Conception et évolution d’une architecture data scalable et modulaire Gestion et optimisation des flux de données Mise en place de processus de data quality et validation des données Optimisation des performances des ingestions de données Participation aux rituels agiles et aux revues de code Documentation des choix techniques et de l’architecture Environnement technique Python Scala / Spark Cloud : AWS et Azure AWS : Lambda, Glue, Redshift, Step Functions, DynamoDB Streaming : Kafka, Kinesis, EventHub, EventGrid API REST Git CI/CD Big Data Architecture Connaissance de Langchain ou Langgraph appréciée.
Freelance
CDI

Offre d'emploi
Data Engineer

VISIAN
Publiée le
Apache Hive
Apache Spark
Hadoop

1 an
45k-58k €
400-550 €
Paris, France
Le datalake est utilisé comme une data plateforme pour les équipes IT et métiers. L'objectif de la mission est d'assurer le rôle de Data Engineer de ce datalake : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : Acheminement de la donnée Mise à disposition de la donnée aux équipes utilisatrices Mise en production de modèles statistiques Suivi de projet de développement Développement job spark Traitement et ingestion de plusieurs formats des données Développement des scripts Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données Développement des moyens de restitution via génération de fichier et ou API & Dashboarding Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP Participer à la conception, mise en place et administration de solutions Big Data Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Freelance

Mission freelance
Senior Data engineer IA (H/F)

CHARLI GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD

2 ans
400-610 €
Île-de-France, France
Dans le cadre de son plan de transformation Data, le groupe poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing Pour répondre à cet enjeu, le groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI, ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour, dont une part majoritaire en temps réel. Description du poste : Notre environnement de travail combine rigueur, une ambiance décontractée au sein des équipes, et des méthodes Agiles (Scrum et Kanban). Votre mission principale, si vous l'acceptez, consistera à intervenir sur des architectures de Streaming Data et IA full AWS (notamment Lambda, Step Function, Kinesis Stream, S3, Batch, Firehose, EMR Serverless, DynamoDB, etc.), ainsi que sur des technologies comme Scala, Spark, SQL, Snowflake, GitLab CI/CD, DBT, Airflow, Terraform. Vous serez amené à : Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Rejoignez une équipe dynamique où innovation et expertise se rencontrent !
CDI

Offre d'emploi
DATA ENGINEER GCP

Peppermint Company
Publiée le
Apache Spark
Google Cloud Platform (GCP)
Hadoop

Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte Dans le cadre d’un projet stratégique de transformation data, nous recherchons un Data Engineer orienté développement , capable d’intervenir sur une migration d’envergure d’Azure vers GCP . 🛠️ Missions principales Participation active à la migration des pipelines data d’Azure vers GCP Développement et optimisation de traitements data Conception d’architectures data robustes et scalables Collaboration avec les équipes data et métiers Contribution aux bonnes pratiques data engineering 🔧 Stack technique Google Cloud Platform (GCP) – niveau confirmé requis Apache Spark / Scala Hadoop ecosystem Forte orientation développement (profil Data Engineer "DEV")
Freelance

Mission freelance
Automaticien / Automation

HAYS France
Publiée le
SCADA
Siemens
TIA Portal

2 ans
Strasbourg, Grand Est
Dans le cadre du développement d’une nouvelle plateforme de programmation PLC et d’un environnement SCADA/HMI destiné à la R&D, nous recherchons un OT Développeur / Automaticien (H/F) . Vous interviendrez sur la mise en place, l’évolution et l’optimisation d’architectures d’automatisation complexes au sein d’un environnement industriel innovant. Votre rôle comprendra le développement d’automatismes, l’intégration SCADA/HMI, la gestion des échanges de données en temps réel, ainsi que la participation au design UI et au prototypage de solutions techniques. Vous travaillerez en collaboration avec les équipes R&D, ingénierie et automatisme afin d’apporter une expertise pointue dans un contexte à forts enjeux technologiques et réglementaires.
Freelance

Mission freelance
Data Engineer Sénior (Hadoop / Python)

Les Filles et les Garçons de la Tech
Publiée le
Apache Spark
Hadoop
Python

12 mois
150-650 €
Lyon, Auvergne-Rhône-Alpes
Au sein du pôle Big Data d'un grand groupe, l'objectif principal de ce poste est de réaliser et de maintenir les développements nécessaires à l'alimentation du Datalake sur une plateforme Cloudera Hadoop, de mettre en place des extractions de données et d'accompagner les utilisateurs. Rattaché(e) au responsable Big Data, vous évoluerez dans un contexte de production à fortes attentes où la tenue des délais de livraison et le pilotage opérationnel sont primordiaux. Vos principales missions seront les suivantes : Développement et intégration : Prendre en charge les évolutions des données à intégrer et reprendre les développements existants pour l'alimentation du Datalake. Vous développerez également des extractions avec un niveau d'expertise en SQL et créerez des scripts Shell avancés pour l'automatisation. Expertise technique et mentorat : Spécifier techniquement les tâches, fournir des requêtes de référence, effectuer des revues de code et accompagner les collaborateurs juniors, stagiaires ou alternants. Support et accompagnement : Assurer le support de niveau 2, faire appliquer les bonnes pratiques et consignes aux utilisateurs, et rédiger la documentation requise (guides, description de processus). Optimisation et maintenance : Garantir la maintenabilité, les performances et l'exploitabilité de la plateforme en respectant l'utilisation des modèles référencés par la Gouvernance de la Donnée. Vous optimiserez les traitements de la plateforme et ceux des utilisateurs, et mènerez des investigations (reverse engineering) dans une architecture héritée complexe

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

42 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous