Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 548 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Tech Lead Big data H/F

Proxiad
Publiée le
Apache Hive
Hadoop
HDFS (Hadoop Distributed File System)

3 ans
10k-60k €
Île-de-France, France

Le bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Conception et développement Dans ce cadre la prestation consiste à contribuer à/au(x) : - Développement Spark/Scala et HIVE - Traitement d'un gros volume de données - Environnement Hadoop - Environnement Anglophone - Environnement Agile Les livrables attendus sont : - Revue de code et re-factoring - Normes de développements Les expertises attendues pour réaliser cette prestation sont listées ci-après : • Hive

CDI

Offre d'emploi
Big data engineer

Datapy Group
Publiée le
Apache Kafka
Apache Spark
PySpark

32k-80k €
Île-de-France, France

Nous sommes à la recherche d'un Ingénieur Big Data pour palier au besoins de nos clients. Le candidat retenu sera chargé de concevoir, développer et maintenir l'infrastructure Big Data, ainsi que de travailler sur des projets d'analyse de données complexes. Responsabilités : Concevoir, développer et déployer des solutions Big Data évolutives et robustes. Mettre en place des pipelines de données pour l'acquisition, le stockage et le traitement de grands volumes de données. Travailler en étroite collaboration avec les équipes métier pour comprendre leurs besoins en matière d'analyse de données. Optimiser les performances des systèmes et des applications Big Data. Assurer la sécurité et la confidentialité des données tout au long du processus.

Freelance

Mission freelance
Développeur Fullstack Java/JEE (nantes)

LeHibou
Publiée le
J2EE / Java EE
Java

15 mois
460 €
Nantes, Pays de la Loire

Migration du parc applicatif sur le cloud privé du groupe et adaptation aux capacités cloud (2/3 temps) Migration des progiciels vers des VM Cloud (Ansible, Terraform, Mise en résilience, gestion réseau), des webapp tomcat vers Docker/K8S, des databases (pilotage des DBA, réalisation des scripts de migration), Migration de 8 webapp Weblogic vers SpringBoot/Docker… Refonte applicative à l’opportunité vers la nouvelle stack de développement (SpringBoot3, Angular, Docker/K8S) Maintien en condition opérationnel du parc applicatif existant & support de production (1/3 temps) Rappel de notre contexte technique : Stack actuelle: Java 21, Angular 15, SpringBoot 3, PostgreSQL, API REST, Docker, Kubernetes, Jenkins, IaaS, Git, Maven, RabbitMQ, ELK Legacy: Java 8, Struts1, Oracle, WS SOAP, Git, Maven, VM

Freelance

Mission freelance
Dataiku

STHREE SAS pour COMPUTER FUTURES
Publiée le
Apache Spark
Dataiku
Hadoop

3 ans
100-500 €
Paris, France

Nous recherchons pour un de nos clients un Data engineer avec deux ans d’éxpériences à minima sur daitaiku , Ce collaborateur doit maitriser les technos comme Python stack technique du besoin : Python hadoop spark 2 ans a fond de dataiku Localisation : IDF, metro , Télétravail : 2 jours de télétravail Démarrage : asap Tjm : dépend de l’expérience, entre 500 et 600max Quelqu’un qui connait depuis 5 ans la solution NB : Ce besoin n'est pas encore exprimé chez notre client, c'est assez urgent nous pouvons faire passer les entretiens asap ainsi que le démarrage

Freelance
CDI

Offre d'emploi
Data Engineering - TALEND / SPARK / SCALA / MSBI

Digistrat consulting
Publiée le
Apache Spark
Hadoop
Microsoft Power BI

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : L'entité a pour charge la maintenance, le support et l'évolution de l'outil concernant le pilotage financier de la banque, des directions centrales et de la facturation interne du groupe. Les outils sont basés sur les technologies Big Data pour le stockage, Talend et Spark/Scala pour les traitements, la suite MSBI SQL Server et cube SSAS pour l'analyse mutlidimensionnelle et enfin du Power BI pour la restitution. Le Bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - Support de l'application (notamment lors des clôtures mensuelles) - La maintenance évolutive - La conception et l'implémentation de nouvelles fonctionnalités - La refonte technique - La migration de Talend vers Spark/scala Environnement anglophone 2 - Livrables attendus Les livrables attendus sont : - Optimisation des performances - Le support de l'application et la documentation - La livraison des evolutions - La livraison des nouvelles fonctions demandées dans le cadre des projets.

Freelance
CDI

Offre d'emploi
Tech Lead Développement Big Data

Digistrat consulting
Publiée le
Apache Spark
Github
Scala

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Tech Lead Big Data. Périmètre fonctionnel : banque d'investissement Les principales tâches de la missions sont les suivantes :  Développement, Clean code,  L'intégration continue,  La définition des solutions dans l'environnement applicatif (Cloud Platform / Spark Data processing)  Mise en place et suivi des développements en production du socle de fonctionnalités Processing / preparation de données  L'assistance à la conception technique du produit  Diverses assistances techniques (sujets techniques complexes sur le produit, etc...)  La revue de code  L'intégration cohérente du produit dans le système d'information en synchronisation avec l'architecture technique  L'analyse de l'impact de la conception du produit sur l'architecture technique du SI  L'architecture technique aux choix d'implémentation dans le SI  La maintenabilité technique du produit  La stratégie de développement et de tests selon critères pré-définis Autres :  Support applicatif via le monitoring et résolution associée  DevOps pour les parties IAAS et CD.  Environnement anglophone

CDI

Offre d'emploi
Data Scientist orienté Engineering - Partenaire Tech pour les Assureurs – Full remote (H/F)

EASY PARTNER
Publiée le
Apache Spark
AWS Cloud
CI/CD

65k-75k €
Paris, France

Contexte du poste : Nous sommes une entreprise innovante dans le secteur des technologies appliquées à l'assurance, basée dans la région parisienne. Notre mission est d'accompagner les assureurs dans la gestion et l'analyse de leurs risques, en utilisant des solutions SaaS avancées. Nous travaillons sur des projets variés visant à optimiser la souscription d'assurances et la gestion de portefeuille grâce à l'intelligence artificielle. Afin de soutenir notre croissance rapide et nos projets d'expansion internationale, nous recherchons un(e)Data Scientist orienté Engineering pour renforcer notre département Insights. Missions : - Concevoir et implémenter des modèles de Machine Learning pour répondre aux besoins business complexes. - Gérer le cycle de vie complet des modèles, de la conceptualisation à la mise en production. - Être le garant de la qualité du code au sein du département Insights, mettre en place des bonnes pratiques de développement. - Conduire des analyses ad hoc pour éclairer les décisions stratégiques. - Participer à des projets d'innovation et d'expérimentation de nouvelles technologies.

Freelance

Mission freelance
Responsable opérationnel d'applications

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Hive
Apache Kafka
Apache Spark

4 mois
100-1 500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Objectifs et livrables L’expertise technique sur le Datalake (plateforme Big Data) consistera à : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake : gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de mises en production · Contribuer à l’amélioration continue des outils d’exploitation · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Freelance

Mission freelance
Data Engineer (H/F) - Paris

Mindquest
Publiée le
Apache Kafka
Apache Spark
Cassandra

6 mois
700 €
Paris, France

Ingestion des données sources via NIFI dans des tables de travail Cassandra ou en parquet sur AWS S3 Développement des Traitements Spark/Scala en lots des données sources ingérées Traitement au quotidien des nouvelles données clients (ajout nouveaux clients Enrichissement au quotidien des données des clients avec des fichiers de scoring et de segmentation (fournis par un autre projet) Traitement toutes les 8 heures des nouvelles ventes avec notamment la mise à jour des ventes auditées ainsi que l’enrichissement des ventes avec les données des clients Ingestion toutes les 8 heures des données des ventes dans Druid Ajout et mise à jour des nouveaux produits des marques avec leur description, leur taille, leurs stocks …. Traitement en temps réel via Kafka/Spark des données sources fournies par les marques dans les topics dédiés : Enrichissement des données des produits des différentes marques en temps réel avec les informations des stocks, des prix Mise à jour temps réel des données des ventes Mise à jour temps réel des données clients Mise à jour des commandes clients Anonymisation des informations clients (RGPD) Mise à jour des stocks disponibles en magasin Exposition des informations des produits en transit (magasin d’origine, magasin destination) afin que les utilisateurs de Luce puissent estimer leurs dates de livraison Traitement et Stockage des données dans Apache Solr et Cassandra Exposition des données traitées dans une API nodejs à travers Cassandra et Solr Ingestion des données des ventes et commandes sur Apache Druid via NIFI Mise en place de tests automatiques afin d’éviter les régressions suite aux nouvelles évolutions Développement de tests unitaires avant déploiement Garantie de la cohérence des données Planification des heures de lancement des différents traitements afin d’éviter d’avoir des données corrompues Déploiement des différents traitements Spark via Jenkins/Livy dans les environnements dédiés Monitoring des Jobs Spark via Yarn et Spark UI avec un système d’alerting via Slack en cas de problème durant les traitements Mise en place de logs qui seront ensuite déposés dans ElasticSearch afin de faciliter la résolution et la recherche des bugs Optimisation des différents traitements Data (optimisation du code Spark, des traitements NIFI) Migration de tous nos workflows NIFI, traitements de données en lots/ temps réel Spark sur Amazon AWS Migration de l’api ainsi que des tables et collections utilisées dans Cassandra Environnement sur AWS Ordonnancement des tâches via Airflow/Python, gestion des différentes dépendances entre les traitements Mise à jour d’une librairie Airflow pour le lancement de nos Jobs Sparks ainsi que le monitoring (vérification des statuts des traitements). Mise en place des capteurs (sensors) nécessaires pour le suivi des statuts des traitements Mise à jour d’une librairie générique Spark pour les jobs d’ingestion via parquet/csv/json

CDI
Freelance

Offre d'emploi
Ingénieur Big Data - DevOps (H/F)

VISIAN
Publiée le
Apache Kafka
Apache Spark
Docker

3 mois
40k-65k €
Marseille, Provence-Alpes-Côte d'Azur

Orienté Big Data et ayant des compétences dans les domaines listés ci-joint : Kafka, Spark, Hbase, Hive, Hadoop, Jenkins, Ansible, Github, Scala, Python, Linux, Kube, Linux. Objectifs et livrables L’expertise technique sur le Datalake (plateforme Big Data) consistera à : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake : gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de mises en production · Contribuer à l’amélioration continue des outils d’exploitation · Communication auprès des utilisateurs finaux Le consultant devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Freelance
CDI

Offre d'emploi
Architecte API

Ewolve
Publiée le
API
Confluence
DevOps

2 ans
10k-195k €
Paris, France

Au sein d'en grand compte du secteur bancaire La mission de l’équipe API est de : - Promouvoir l’approche API au sein des différents métiers du groupe - Aider les métiers et les domaines études à définir et à mettre en œuvre leur stratégie architecture orientée service : étude de l’existant, et trajectoire de mise en œuvre par SI en lien avec les normes et bonnes pratiques du groupe - Représenter l'entité dans les instances du groupe en lien avec les projets API Poste et missions En qualité d'Architecte API, votre rôle et votre consiste à : • Assimiler la stratégie API au sein du groupe et aider à son déploiement dans les domaines études : étude de l’existant et trajectoire de mise en œuvre par SI • Contribuer au développement des règles implémentées au niveau de la gateway API (« policies ») • Contribuer à construire l’offre API Management notamment l’intégration aux outils de déploiement (DevOps, intégration continue) voire au portail développeur, à l’écriture de sdk • Connaissance des thématiques de sécurité liées à l’exposition de services (JWT, flows OAuth, OpenId Connect, etc.) • Participer à la communauté des d’architectes . Identifier et diffuser les bonnes pratiques de développements des API / OPEN API • Réaliser une veille techno L’outil groupe pour l’API management est Axway API Management. Les services sont majoritairement développés en Java. Outils : • Collaboration : Jira, Confluence • Développement : Java, Groovy, Eclipse, Git, Jenkins XLDeploy • Infra : Architecture J2E, Serveur JBoss, IHS, Oracle Compétences personnelles : • Structuré, bon esprit d’équipe, autonomie, curiosité • Capacité d’écoute Compétences fonctionnelles et méthodologiques : • Expérience de travail avec des méthodes Agile • Expérience domaine bancaire souhaitée Votre niveau d'anglais est courant.

Freelance
CDI

Offre d'emploi
Concepteur - Développeur Web Back Expérimenté

VPEX-IT
Publiée le
API REST
Gitlab
GitLab CI

1 an
10k-45k €
Montpellier, Occitanie

Taches Affinage IT de récits métiers et techniques, conception, développement, analyse d'incidents et maintenance contexte Accompagnement de l'équipe de dev sur la maintenance et le développement des produits Attendu Assurer les développements et la maintenance des Produits . Compétences JAVA J2EE, SPRING, SpringBatch serait un + Devops : Jenkins / Gitlab / Gitlab CI/CD Webservices SOA Dev API REST JSP css - Html - javascript SQL - DB2 Eclipse / XL Release Travail en équipe Rigoureux Proactif Méthode Agile Scrum

Freelance
CDI

Offre d'emploi
Data Engineer (H/F)

CITECH
Publiée le
Apache Spark
Scala
Talend

1 an
45k-65k €
Paris, France

CITECH recrute ! 👌 👍 Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Engineer (H/F) 🚀 💰 Votre mission est pour un client reconnu dans le secteur bancaire, implanté dans de nombreuses villes en France, il a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. 💳 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Support de l'application (notamment lors des clôtures mensuelles). 🔸 Participer à la maintenance évolutive. 🔸 Participer à la conception et l'implémentation de nouvelles fonctionnalités. 🔸 Participer à la refonte technique. 🔸 Participer à la migration de Talend vers Spark/scala.

Freelance

Mission freelance
DEVELOPPEUR (SE) NODE-RED F/H

GENIOUS
Publiée le
Développement

1 an
100-500 €
Île-de-France, France

Qui sommes-nous ? Nous sommes une société de conseil qui dédie son savoir-faire et son expertise dans la transformation des infrastructures (On-premise, cloud, optimisation, architecture, sécurité, ) pour nos clients du CAC 40 et mid-market. Genious Systèmes, c est une présence dans de nombreux secteurs: énergie, banque, assurance, asset management, télécom, industrie, sport, divertissement, médias . Notre valeur ajoutée ? 30 ans d expérience dans les métiers de l infrastructure et du digital qui nous permettent de proposer du « sur mesure » et un suivi de qualité auprès de nos clients. Genious Systèmes c'est aussi une société avec une gestion des Ressources Humaines qui repose sur une politique résolument humaine! Genious Systèmes recherche pour son client un Développeur(se) f/h Node-Red Vous intégrerez l'équipe de développement : Développement de fonctionnalités autour de Node-Red S'assurer de la bonne exécution des tests Apporter son soutien technique et assurer la maintenance Faire évoluer et améliorer les programmes Possibilité de télétravail

CDI

Offre d'emploi
Développeur Backend

TRSB
Publiée le
J2EE / Java EE
Java
PostgreSQL

35k-40k €
Île-de-France, France

Activité du client : bancaire Poste : Développeur Backend Séniorité : 4 ans ou plus Dans le cadre d'un projet lié au développement d'un outil qui permet la gestion des flux (courriers, recommandés) pour la communication avec l'extérieur. Rôle : Participer à la phase RUN (75%) et BUILD (25%) de l’outil

CDI

Offre d'emploi
Développeur C# ▸ Industrie

CONCRETIO SERVICES
Publiée le
Développement
Méthode Agile
Scrum

6 mois
40k-55k €
Toulouse, Occitanie

🚀 QUELLE SERA VOTRE MISSION ? Acquérir une expertise approfondie sur le système MES existant afin de fournir un support efficace à la production. Assurer le déploiement et l'intégration du système MES pour connecter les nouvelles lignes de production. Collaborer étroitement avec les équipes de production et d'ingénierie pour comprendre et formaliser les besoins des utilisateurs. Concevoir et développer des solutions logicielles en utilisant principalement le langage C#. Assurer la maintenance et l'évolution de l'architecture logicielle dans le respect des normes et des bonnes pratiques. Participer activement à l'automatisation des processus pour optimiser l'efficacité opérationnelle de l'usine.

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous