Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 117 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Data Engineer Spark Senior

KLETA
Publiée le
Apache Spark
Spark Streaming

3 ans
10k-73k €
Paris, France

Analyse des Exigences : Collaborer avec les équipes métier pour comprendre les besoins en matière d'analyse de données et de traitement. Conception de Solutions : Concevoir des architectures de données et des solutions de traitement distribué en utilisant Apache Spark. Proposer des modèles de données adaptés aux cas d'utilisation spécifiques. Développement de Pipelines de Données : Développer des pipelines de données robustes et évolutifs en utilisant Apache Spark pour l'ingestion, le nettoyage, la transformation et la préparation des données. Utiliser Spark Streaming pour le traitement en temps réel des flux de données. Optimisation des Performances : Optimiser les performances des jobs Spark en ajustant les configurations, en utilisant des techniques de partitionnement et de cache, et en améliorant l'efficacité des transformations. Gestion des Versions : Utiliser des outils de contrôle de version pour gérer le code source et les artefacts des pipelines Spark. Tests et Validation : Élaborer des stratégies de test pour les pipelines Spark et mettre en œuvre des tests unitaires, d'intégration et de régression. Valider la qualité des données à différentes étapes du pipeline. Déploiement et Monitoring : Déployer les pipelines Spark sur des clusters de production et surveiller les performances en temps réel. Mettre en place des alertes pour détecter les problèmes de performance ou de disponibilité. Sécurité : Implémenter des mesures de sécurité pour protéger les données sensibles tout au long du pipeline. Utiliser des technologies telles que Kerberos, Ranger, ou des outils de chiffrement pour assurer la sécurité des données. Documentation : Documenter les pipelines de données, les flux de travail, les configurations et les bonnes pratiques. Créer des guides d'utilisation pour les autres membres de l'équipe et les utilisateurs finaux.

Freelance
CDI
CDD

Offre d'emploi
Un(e) Développeur Fullstack Scala Angular - Luxembourg

EXMC
Publiée le
AngularJS
Apache Kafka
API REST

6 mois
40k-65k €
Luxembourg

Développeur Fullstack Scala Angular Description des tâches Les équipes sont organisées par domaine métier. Vous intégrerez le domaine Contrat Marché belge à plein temps où vous aurez la charge de : · Travailler dans un environnement agile · Concevoir, réaliser, tester, déployer, monitorer vos réalisations en Scala · Maintenir des APIs (Scala) et des Fronts (Angular) modulaires et intégrables · D’adhérer aux principes d’améliorations continues et de modernisation du domaine · De devenir un expert dans certaines parties du domaine applicatif avec une mission longue Les équipes se composent d’un Product Owner, 2 Business Analyst, 1 Scrum Master et de plusieurs développeurs qui évoluent dans la méthodologie Scrum; et travaillent étroitement avec les parties prenantes du côté métier. Compétences souhaitées · [FRONT] Vous avez une bonne expérience dans la conception d'architecture basée sur des composants utilisant Angular. React ou Vue.js sont également accepté · [FRONT] Vous maîtrisez HTML / CSS / JS · [FRONT] Vous êtes en mesure de consommer des APIs REST · [FRONT] Vous savez intégrer des maquettes réalisées par des designers (dans Figma) · [BACK] Vous maîtrisez la programmation Objet (Java 8, ...), · [BACK] La maîtrise de la programmation fonctionnelle (Scala, ...) est un réel atout · [BACK] Vous avez de l'expérience avec les DB relationnelles (Db2) · [BACK] La connaissance en DB non relationnelles (MongoDB) est un réel atout · [BACK] La connaissance de la programmation événementielle (event sourcing) avec KAFKA est un réel atout. · [BACK] Vous avez des connaissances dans la conception d’APIs REST · Vous êtes capable de faire monter en compétence vos pairs au travers de code-review, pair programming, … · Vous maîtrisez l’entièreté d’une chaine de développement, et avez la capacité de pousser et de justifier des choix d’architecture · Vous utilisez des outils de déploiement continu (K8s, Jenkins, …) et de monitoring (Instana et Sentry) · Vous savez collaborer avec des développeurs d’autres équipes afin d’améliorer les systèmes et les processus dans un environnement organisé par domaines · Vous êtes proactif, appréciez le travail en équipe et désireux d’apprendre · Vous êtes familier avec un outil de versionning de code tel que Git · Vous êtes en mesure de venir sur site à Leudelange (à raison d'au moins 3 jours par semaine) En plus: · Expérience avec des frameworks de tests unitaires · Utilisation du standard JSON-API

CDD
Freelance
CDI

Offre d'emploi
Data Engineer TALEND / SPARK / SCALA / MSBI H/F

SMARTPOINT
Publiée le
Apache Spark
Scala
Talend

3 ans
55k €
Paris, France

La prestation consiste à contribuer à/au(x) : - Support de l'application (notamment lors des clôtures mensuelles) - La maintenance évolutive - La conception et l'implémentation de nouvelles fonctionnalités - La refonte technique - La migration de Talend vers Spark/scala Environnement anglophone Les livrables attendus sont : - Optimisation des performances - Le support de l'application et la documentation - La livraison des évolutions - La livraison des nouvelles fonctions demandées dans le cadre des projets

Freelance
CDI

Offre d'emploi
Data Engineer Python / AWS / Databricks / Spark

GRADIANT
Publiée le
AWS Cloud
Databricks
PySpark

3 ans
10k-60k €
Paris, France

Nous recherchons pour l'un de nos clients, une entreprise du CAC 40, un(e) Data Engineer senior pour intégrer une mission longue de 3 ans. Le rôle du Data Engineer senior dans ce projet impliquera la conception et la mise en œuvre des composants de plateforme suivants : • Ingestion de données • Traitement et normalisation des données. • Distribuer les données aux différentes parties prenantes. • Construire et améliorer un cadre commun comprenant la surveillance, le CI/CD, les tests, les performances, la résilience, les pratiques de développement et la qualité du code…

CDI

Offre d'emploi
Ingénieur SCADA F/H/X

Mantu Groupe ( Amaris )
Publiée le
SCADA

35k-40k €
Mulhouse, Grand Est

Passionné.e par l'ingénierie des systèmes de supervision et de contrôle ? Rejoignez-nous en tant qu'Ingénieur.e SCADA pour participer à des projets innovants et contribuer à l'excellence des solutions de supervision. Apportez votre expertise et devenez un élément clé de notre équipe dédiée à l'efficacité opérationnelle et à la qualité des systèmes de contrôle et d'acquisition de données ! 🔥 Vos responsabilités : Participer activement aux différentes phases de cadrage, de paramétrage/développement et de tests d’applications de supervision (SCADA). Prendre en compte les besoins du client et les traduire en solutions techniques. Réaliser les paramétrages des progiciels retenus et effectuer des développements spécifiques en respectant les règles et méthodes définies. Contribuer à la rédaction de la documentation projet associée (spécifications, cahier de recette, manuels). Effectuer des déplacements chez le client pour la mise en service.

Freelance

Mission freelance
Data Ingénieur/Spark Scala (F/H)

SMARTPOINT
Publiée le
Apache Spark
Git
Hadoop

12 mois
470-530 €
Île-de-France, France

Le bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de data Engineering Dans ce cadre la prestation consiste à contribuer à/au(x) :  Recueil et à l'analyse des besoins métier et des processus de bout en bout  La redaction des spécifications techniques.  L'assistance et contribution aux instances projet.  La sécurisation des jalons stratégiques  Suivi et au dépannage de la production pour son maintien en conditions opérationelles Envrionnement technique : Juptyper Lab, ML Flow Environnement Agile Livrables attendus Les livrables attendus sont : - Dévéloppements : Python, système RAG, implémentation des Guardrails, prompt ingénierie) - Contribution aux chantiers transverses : Architecture, Sécurité - Documentation technique de la solution - Contribution à la préparation des instances projets Expertise(s) / technologie(s) Les expertises attendues pour réaliser cette prestation sont listées ci-après :  Compétences en développement (Shell unix, Perl, PHP, Python, git, github)  Continuous Integration  Hadoop (Big Data), Spark  Python

Freelance

Mission freelance
Ingénieur Scada H/F

Hays Medias
Publiée le
Gestion de projet
MES (Manufacturing Execution System)
SCADA

12 mois
100-450 €
Mulhouse, Grand Est

Dans le cadre de projets Conception et de Réalisation (C&R) au forfait pour nos clients de l’entité, le(la) collaborateur(trice) participe aux phases de cadrage, paramétrage/développement et de tests d’applications MES (Manufacturing Execution System). Placé sous l’autorité d’un Chef de projet technique ou d’un Responsable technique, ses missions sont : La prise en compte des besoins client, La réalisation des paramétrages des progiciels retenus (MES) et des éventuels développements spécifiques en respectant les règles et méthodes définies, La participation aux différentes phases de tests, La rédaction de la documentation projet associée (cahier de recette, manuels), Les déplacements chez le client pour la mise en service.

Freelance

Mission freelance
tech lead Spark/Scala

Innov and Co
Publiée le
Apache Spark
Scala

12 mois
100-650 €
Fontenay-sous-Bois, Île-de-France

- Développement Spark/Scala et HIVE - Une bonne expertise des environnements hadoop- Environnement Anglophone 2 - Livrables attendus Les livrables attendus sont :- Revue de code et re-factoring - Projet agile (Scrum) - Traitement d'un gros volume de données - L'application des normes de développements 3 - Expertise(s) / technologie(s) Les expertises attendues pour réaliser cette prestation sont listées ci-après :  Agile Scrum  Hive  PostGreSQL  Python  Scala Dans le cadre de cette prestation, le pourcentage d'exécution prévu hors site est de 60%

Freelance

Mission freelance
TECH LEAD BIG DATA/SPARK/SCALA

OCSI
Publiée le
Apache Spark
Hadoop
Scala

12 mois
100-600 €
Île-de-France, France

Freelance

Mission freelance
Data Engineer (H/F)

CTG
Publiée le
Apache Spark
Cloud
Finance

3 ans
100-600 €
Paris, France

En tant que Data Engineer, vous travaillerez en direct avec le Team Lead, les business analystes et le PO. Vous aurez à cœur de comprendre le business model. Les projets à adresser visent le développement et maintenance de modules de gestion des données de consommation (intégration, transformation et exposition), de contrats, et leur représentation à travers différentes interfaces. Vous interviendrez aussi bien sur de l'analyse de besoin, design, développement, support, maintenance corrective et évolutive. Vous travaillerez dans une équipe auto-organisée en mode agile avec un Product Owner et 3 BA (Business analystes). Les activités de cette équipe couvrent l'analyse, le développement, les tests, le déploiement et le support. Vos activités principales seront : · La montée en compétence sur les process, produits et applications existantes · La compréhension du business et la réalisation de développements en pair avec un responsable fonctionnel · L’analyse et spécifications des besoins et algorithmes · Implémenter les corrections et évolutions en couvrant tous les aspect conception, codage, sécurité, gestion des erreurs, évolutivité, scalabilité, revues de code, testing, intégration continue, ...- · Fournir des services aux utilisateurs avec le plus haut niveau de satisfaction. · Fournir des estimations de charge et délais · Soutenir l'amélioration continue des services. Identifier les goulots d'étranglement et les bugs et définir des solutions à ces problèmes · Rédiger et mettre à jour les documentations · Proposer des solutions innovantes répondant aux problématiques fonctionnelles et techniques. · Travailler en étroite collaboration avec les BA, les utilisateurs, architectes et autres équipes de développement. · Fournir une communication efficace et opportune aux différentes équipes concernées

Freelance

Mission freelance
IT SCALER Anglais obligatoire

TAHYS RECRUITMENT SOLUTIONS
Publiée le
Azure
Java

12 mois
100-850 €
Paris, France

Responsable de la déclinaison des exigences non fonctionnelles définies avec les architectes. J’aide le Scaler Métier à maximiser la valeur du produit en lui apportant la vision et les possibilités IT. Je suis garant de décliner le modèle de delivery/scaling. Fournir les KPI de productivité/performances de la Squad. Onboarder les ressources. Garantir la bonne application/adéquation des requirements techniques SI (hors pratiques de dev.). Contribuer à l’élaboration et au suivi du budget du produit à partir des hypothèses fournies par les métiers. Piloter les actions de Scale, Deploy & Run Besoin d'un profil technique full stack avec fort background application - software engineering Node JS, React , Angular DevOps : Azure et infra as code Terraform Ansible Appli : NodeJS, React, Angular, Java (Springboot), Python Data (Azure Databricks, MongoDB, SQL Server, Postgre) Faut savoir coder Aspects infra : architecture de design à faire Sujet à venir : mise en œuvre de la Data Platform Graph avec mise à jour temps réel Le profil devra piloter des équipes en Inde (prestataires externes) Il y a un manque coté équipes en Inde --> le profil supportera la squad et débloquer sur des problématiques techniques Il y aura des choix techniques à mettre en œuvre et à faire faire par la plateforme en Inde Il faudra faire des taches en autonomie mais il faudra aussi pouvoir bien communiquer avec les équipes indiennes Exp avec l'Inde est un plus mais pas un show stopper Anglais obligatoire

CDI

Offre d'emploi
Ingénieur Exploitation SCADA H/F

ITEA
Publiée le
SCADA

30k-200k €
Mulhouse, Grand Est

Plus qu'un métier, Itéa a pour vocation de déceler et révéler les bons profils, avec une curiosité qui va souvent au-delà des compétences, et parfois entre les lignes d’un CV. Aujourd’hui, nous recherchons pour l’un de nos clients, un Ingénieur Exploitation SCADA H/F et vous présentons les points clés du poste : Poste en CDI Basé à Mulhouse Secteur : Industrie / Automobile Pour le compte de l'activité Contrôle Commande Ingénierie Informatique, vous intervenez sur la mise en place et le paramétrage de solution de supervision / MES du traitement des données en temps réel. Vos missions seront : La prise en compte des besoins client sur les données à superviser La réalisation des paramétrages des progiciels retenus (ICONICS, PANORAMA E2, PC VUE, INTOUCH),et des éventuels développements spécifiques en respectant les règles et méthodes définies (Open Source et/ou .NET avec interface SQL) La participation aux différentes phases de tests La rédaction de la documentation projet associée (spécifications, cahier de recette, manuels)

Freelance
CDI

Offre d'emploi
Intégrateur H/F

WE +
Publiée le
Ansible
Apache
API REST

3 mois
10k €
Niort, Nouvelle-Aquitaine

La Factory de notre client doit contribuer au programme de stabilisation du SI dans l’ensemble des streams : Observabilité, Obsolescence, BuildToRun, Capacitaire et Rationalisation. La mission de la Factory est de mettre en œuvre l’ensemble des actions d’industrialisation pour contribuer à la stabilisation de leur système d’information et son amélioration. Votre mission : Industrialisation et documentation des solutions Mise en œuvre des chaînes d’intégration et de déploiement Contrôle des guidelines dans les projets Démarche d'amélioration continue Fiabilisation des environnements de BUILD Livrables attendus : Automatisation de déploiement (CI/CD) : Ansible, AWX, Terraform, GitLab CI, etc. Mise en place de nouvelles procédures et bonnes pratiques Installation de composants techniques et d'outillages Documentation (Wiki, Article, )…

Freelance

Mission freelance
data engineer python spark anglais - 5 ans d'EXP

Innov and Co
Publiée le
Apache Spark
Kubernetes
PySpark

12 mois
100-600 €
Issy-les-Moulineaux, Île-de-France

Dans un secteur logistique en plein essor, en prise direct avec les problématiques actuelles (smart cities, environnement, géopolitique), et en pleine transformation technologique (véhicules autonomes, digitalisation, mobilité), DPD Group vous offre l’opportunité d’avoir un impact direct sur la gestion de colis du futur. Vous intégrerez l’équipe Analytics et contribuerez principalement au développement de la plateforme DataHub. Actuellement petite équipe autonome de 4 personnes engagées à 100% sur ce projet, l’équipe Analytics est intégrée au sein de l’équipe Data Science & Analytics de la DPSIN. L’objectif de la plateforme interne DataHub est de stocker les données historiques des activités et permettre leur requêtage efficient. Les données sont issues de et exploitées par divers acteurs – Marketing, Sales, OPS, IT, Data Science, … en central ou depuis les Business Units – pour des usages tels que la récupération simple de données historiques, la BI ou le machine learning. L’environnement de travail est international, avec des contacts quotidiens avec des équipes en France et à l’étranger. Les demandes d’utilisations de la plateforme croissent fortement. La plateforme DataHub en quelques faits : § 2023 : Forte croissance des usages de la plateforme (BI, requêtage ad-hoc, requêtages fréquents standardisés et hautes performances d’applications), enrichissement de l’offre de services (Data Viz avec Superset) § 2024 : Monter en charge sur les usages (plus de use cases !), étendre l’offre de services et améliorer l’expérience utilisateurs (Data Viz, Data lineage), optimiser l’usage de notre stack technique (Spark, Airflow...), généraliser l’usage de tables d’Apache Iceberg, poursuivre l’industrialisation des pipelines de traitement de données… o Les cas d’usages aujourd’hui en production : § 9 rapports BI servis § Requêtages fréquents (standardisés et tunés, avec ou sans API) par des applications :: 4 cas d’usages § Requêtage ad-hoc croissant des data scientists et équipes IT (+1000 requêtes / mois) o Volumes de données sous gestion active : § ~10 To de données § +15 flux de données § Flux de donné majeur : +100 millions d’évènements / jour d’évènements sur les colis Environnement technique : § Data Lake basé sur des technologies open source. § Architecture Cloud Kubernetes (Outscale Cloud) § Stockage des données sur du S3 (Outscale OOS) sous forme de fichiers Parquet (simples ou tables Iceberg) ou json § Query engine pour se connecter (S3 et autres DB) et requêter (SQL standard) les données : Dremio § Maintenance de tables Iceberg et requêtage de données avec Apache Spark § Automatisation des opérations et traitements de données en python avec Apache Airflow § Data Viz orientée métier avec Apache Superset § Data Viz orientée Monitoring IT avec Grafana § APIs développées en Python et Java § Gestion de version et CI/CD avec GIT Lab Organisation : § Equipe Produit de 4 personnes § Mode de travail Agile Scrum

Freelance
CDI

Offre d'emploi
Ingénieur Data

Amontech
Publiée le
AWS Cloud
Data visualisation

1 an
10k-57k €
Lille, Hauts-de-France

Nous recherchons un profil expérimenté ayant déjà travaillé avec Airflow et Databricks pour la partie data engineering ainsi que Tableau pour la partie visualisation. Notre projet implique une grande quantité de données et nécessite une gestion et une analyse efficaces. Les objectifs et livrables de ce projet comprennent: Migration : connecter nos sources de données vers AWS S3 Réalisation de dashboards avec Tableau Travail sur la qualité de nos données avec Databricks Création de flux de données automatisés avec Airflow

Freelance

Mission freelance
Data Architect

Phaidon London- Glocomms
Publiée le
Amazon S3
Architecture
AWS Cloud

7 mois
600-750 €
Paris, France

Role: Data Architect Lieu: Paris Durée: 7 mois (jusqu'à la fin de l'année avec possibilité de prolongation) Date de début: Immediate Hybrid Remote TJM: €600-750/jour Role: Définir des architectures de plateformes de données pour répondre aux cas d'utilisation identifiés par les entreprises ; Gérer des projets d'architecture de données impliquant des environnements cloud, sur site ou hybrides ; Produire des fichiers d'architecture. Collaborer avec l'équipe chargée des données pour veiller à ce que l'infrastructure de données existante soit maintenue et améliorée.

1117 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous