Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 274 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Dataiku

STHREE SAS pour COMPUTER FUTURES
Publiée le
Apache Spark
Dataiku
Hadoop

3 ans
100-500 €
Paris, France

Nous recherchons pour un de nos clients un Data engineer avec deux ans d’éxpériences à minima sur daitaiku , Ce collaborateur doit maitriser les technos comme Python stack technique du besoin : Python hadoop spark 2 ans a fond de dataiku Localisation : IDF, metro , Télétravail : 2 jours de télétravail Démarrage : asap Tjm : dépend de l’expérience, entre 500 et 600max Quelqu’un qui connait depuis 5 ans la solution NB : Ce besoin n'est pas encore exprimé chez notre client, c'est assez urgent nous pouvons faire passer les entretiens asap ainsi que le démarrage

Freelance
CDI

Offre d'emploi
Data Engineer AWS

4 Impact
Publiée le
Apache Spark
AWS Cloud
Scala

12 mois
39k-50k €
Hauts-de-Seine, France

Nous recherchons pour l’un de nos clients un Data Engineer AWS. Contexte de la mission : Au sein de l'équipe chargée de développer des outils internes d’une entité, constituée de 10 personnes : Développeurs back/frond end et Ingénieurs Data, le Data Engineer AWS est en charge de mener à bien un besoin clé du Groupe autour du sujet Zéro Carbone. Affecté à l'équipe métier, nous travaillons en mode Scrum en collaboration avec un autre Data Engineer et un PO pour réaliser les tâches et mener à bien le projet à terme. Missions : - Créer des fonctions AWS Lambda et pour consommer des APIs provenant de l'extérieur (données Gas/Power) et alimenter nos buckets S3 dédiés. - Développer des jobs AWS Batch pour alimenter nos buckets S3 avec des données pré-calculées de l'intensité Carbon du Groupe et de ses clients. - Mettre en place des dashboards sur Quicksight pour visualiser les résultats. - Développer une API Flask et exposer les calculs via Swagger. - Exploration des données via AWS Athena. - Mise en place de Jupyter Notebooks pour exposer et valider nos premiers résultats de calculs aux métiers. - Scheduler des jobs via CloudWatch et StepFunctions. - Archiver l'ensemble du code dans Git et mettre en place un déploiement automatique via Azure Devops - Mise en place de WebApps sur Azure pour héberger nos API Flask. - Collaborer avec nos clients pour présenter nos calculs et les accompagner. Environnement technique : Spark, Python, Jupyter/ Pytest, Flask, Swagger, AWS Lambda/ Athena/ CloudWatch/ QuickSight/ Batch / S3/ Partionning/ Bucketing, Azure Devops/ Functions/ AppService/ Web Apps.

CDI
Freelance

Offre d'emploi
Ingénieur Big Data - DevOps (H/F)

VISIAN
Publiée le
Apache Kafka
Apache Spark
Docker

3 mois
40k-65k €
Marseille, Provence-Alpes-Côte d'Azur

Orienté Big Data et ayant des compétences dans les domaines listés ci-joint : Kafka, Spark, Hbase, Hive, Hadoop, Jenkins, Ansible, Github, Scala, Python, Linux, Kube, Linux. Objectifs et livrables L’expertise technique sur le Datalake (plateforme Big Data) consistera à : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake : gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de mises en production · Contribuer à l’amélioration continue des outils d’exploitation · Communication auprès des utilisateurs finaux Le consultant devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Freelance

Mission freelance
Data Engineer (H/F) - Paris

Mindquest
Publiée le
Apache Kafka
Apache Spark
Cassandra

6 mois
700 €
Paris, France

Ingestion des données sources via NIFI dans des tables de travail Cassandra ou en parquet sur AWS S3 Développement des Traitements Spark/Scala en lots des données sources ingérées Traitement au quotidien des nouvelles données clients (ajout nouveaux clients Enrichissement au quotidien des données des clients avec des fichiers de scoring et de segmentation (fournis par un autre projet) Traitement toutes les 8 heures des nouvelles ventes avec notamment la mise à jour des ventes auditées ainsi que l’enrichissement des ventes avec les données des clients Ingestion toutes les 8 heures des données des ventes dans Druid Ajout et mise à jour des nouveaux produits des marques avec leur description, leur taille, leurs stocks …. Traitement en temps réel via Kafka/Spark des données sources fournies par les marques dans les topics dédiés : Enrichissement des données des produits des différentes marques en temps réel avec les informations des stocks, des prix Mise à jour temps réel des données des ventes Mise à jour temps réel des données clients Mise à jour des commandes clients Anonymisation des informations clients (RGPD) Mise à jour des stocks disponibles en magasin Exposition des informations des produits en transit (magasin d’origine, magasin destination) afin que les utilisateurs de Luce puissent estimer leurs dates de livraison Traitement et Stockage des données dans Apache Solr et Cassandra Exposition des données traitées dans une API nodejs à travers Cassandra et Solr Ingestion des données des ventes et commandes sur Apache Druid via NIFI Mise en place de tests automatiques afin d’éviter les régressions suite aux nouvelles évolutions Développement de tests unitaires avant déploiement Garantie de la cohérence des données Planification des heures de lancement des différents traitements afin d’éviter d’avoir des données corrompues Déploiement des différents traitements Spark via Jenkins/Livy dans les environnements dédiés Monitoring des Jobs Spark via Yarn et Spark UI avec un système d’alerting via Slack en cas de problème durant les traitements Mise en place de logs qui seront ensuite déposés dans ElasticSearch afin de faciliter la résolution et la recherche des bugs Optimisation des différents traitements Data (optimisation du code Spark, des traitements NIFI) Migration de tous nos workflows NIFI, traitements de données en lots/ temps réel Spark sur Amazon AWS Migration de l’api ainsi que des tables et collections utilisées dans Cassandra Environnement sur AWS Ordonnancement des tâches via Airflow/Python, gestion des différentes dépendances entre les traitements Mise à jour d’une librairie Airflow pour le lancement de nos Jobs Sparks ainsi que le monitoring (vérification des statuts des traitements). Mise en place des capteurs (sensors) nécessaires pour le suivi des statuts des traitements Mise à jour d’une librairie générique Spark pour les jobs d’ingestion via parquet/csv/json

Freelance

Mission freelance
Tech Lead Big Data Java Spark

Cogigroup
Publiée le
Apache Spark
Java

3 mois
100-440 €
Paris, France

Je recherche un Tech Lead Big Data – Expert Java - Spark : • Devenir le Pilier technique du socle Big Data en Java Spark pour aider les utilisateurs de différentes 6 squads à l’utiliser, répondre aux tickets, analyser les bugs et savoir coder les corrections et livrer (CI/CD Jenkins Maven) • Rôle orienté RUN mais quelques évolutions peuvent toujours intervenir, avec donc la capacité de comprendre le besoin fonctionnel et développer l’évolution • Gérer les clusters Hadoop MapR on-premise avec un accent sur l'optimisation des performances et le chargement de données en streaming (Kafka/MaprES) et en batch.

CDI
CDD

Offre d'emploi
Administrateur Windows Devops

Exigences IT
Publiée le
AWS Cloud
Azure
Cloud

1 an
10k-200k €
Orléans, Centre-Val de Loire

PLATEFORME : Cloud privé SG (accès restreint) COMPETENCES RECERCHEES: Connaissance Technologies VMWare (Interne SG) Connaissance des systèmes d'exploitation Windows et UNIX Connaissance installation / Maintenance des Services Windows Connaissance de l'Administration Windows Connaissance LDAP Connaissance du langage de programmation Powershell Connaissance de différents langages de programmation et de script (Java, Python, Ruby, JavaScript, Scala, etc.) Connaissance de différents bases de données Principes de réseau et protocole TCP/IP (ouverture de route, etc...) Connaissance d'Azure Devops (Chaîne CI/CD), du Cloud Public (Azure, AWS, GCP) et de l'Observabilité (Elastic Stack) Connaissance Technologie Automatisation OBJECTIFS : Automatisation de Virtualisation des creations/installation de VDI Automatisation de Virtualisation des creations/installation de Serveurs

Freelance

Mission freelance
développeur pyspark spark - 550€ max

Innov and Co
Publiée le
Apache Spark
PySpark
Python

12 mois
100-550 €
Boulogne-Billancourt, Île-de-France

Dans le cadre de la mise en place du projet Data Finance nous recherchons un data engineer confirmé. - Contexte : le projet Data Finance à pour objectif de mettre a disposition des données consolidé de différente source (base de données relationnelle, SAP , base de données Iaas) dans un modèle de donnée modélisé en Etoile a des fins d'analyse financier. - Environnement technique : Azure DataFactory, Databricks, Pyspark, SQL , Azure devops, Blob Storage. - Mission du candidat : Développer des pipeline d'ingestion des données dans le datalake avec datafctory Développer des flux de transformation de données via Python/spark/ Pyspark Databricks. Mettre en place des pipeline CICD azure devops Participé au re factoring du code existant Être garant de la qualité du code et le bon respect des norme de développement Mis en place des test unitaire. Mise en place du monitoring et de la supervision de l'application datafinance .

Freelance

Mission freelance
Développeur Fullstack Java/JEE (nantes)

LeHibou
Publiée le
J2EE / Java EE
Java

15 mois
460 €
Nantes, Pays de la Loire

Migration du parc applicatif sur le cloud privé du groupe et adaptation aux capacités cloud (2/3 temps) Migration des progiciels vers des VM Cloud (Ansible, Terraform, Mise en résilience, gestion réseau), des webapp tomcat vers Docker/K8S, des databases (pilotage des DBA, réalisation des scripts de migration), Migration de 8 webapp Weblogic vers SpringBoot/Docker… Refonte applicative à l’opportunité vers la nouvelle stack de développement (SpringBoot3, Angular, Docker/K8S) Maintien en condition opérationnel du parc applicatif existant & support de production (1/3 temps) Rappel de notre contexte technique : Stack actuelle: Java 21, Angular 15, SpringBoot 3, PostgreSQL, API REST, Docker, Kubernetes, Jenkins, IaaS, Git, Maven, RabbitMQ, ELK Legacy: Java 8, Struts1, Oracle, WS SOAP, Git, Maven, VM

Freelance

Mission freelance
Business Analyst - Market & Trading Data (FH)

Taleo Capital
Publiée le
Data analysis
Data management
Microsoft Power BI

1 an
550-690 €
Paris, France

Contexte : Au sein de l'équipe Market & Trading Data de la DSI Global Markets, le Business Analyst aura pour mission d'intervenir sur les projets liés au Datalake PreTrade & Execution sur les plateformes de trading électroniques (Forex, Fixed Income, Equities et Commodities). L'objectif est d'enrichir ce datalake avec l'ensemble des ordres et exécutions des plateformes électroniques utilisées par Global Markets, puis de valoriser les données de ce datalake. La mission a une durée prévue d'un an renouvelable et est située à Paris 13è. Principales missions : Interaction avec les plateformes électroniques et recueil des besoins utilisateurs (traders, vendeurs, compliance, …) Rédaction de spécifications fonctionnelles Tests Suivi des projets et sujets autour du Datalake Support fonctionnel

CDI

Offre d'emploi
Data Architect (H/F)

CELAD
Publiée le
Big Data

45k-50k €
Lyon, Auvergne-Rhône-Alpes

🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Data Architect pour intervenir chez un de nos clients. 💻💼 Votre mission 🎯 : Vous arrivez avec votre expertise technique et vous plongez dans le développement. Vous serez là, au cœur de la guilde des architectes, assurant la bonne marche du flux de données et donnant un coup de main aux équipes de développement. C'est vous qui aurez la responsabilité de donner vie à la solution dans votre domaine, en documentant chaque étape du processus. Et puis, vous avez l'habitude de façonner, documenter et garder en bon état les modèles de données, tant logiques que physiques.

CDI

Offre d'emploi
Data Ingénieur | Big Data (H/F)

CELAD
Publiée le
Big Data

40k-45k €
Lyon, Auvergne-Rhône-Alpes

🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Data Ingénieur | Big Data pour intervenir chez un de nos clients. 💻💼 Contexte : Vous ferez partie d'une équipe dynamique de 6 personnes, répartie sur plusieurs sites, et vous participerez activement au développement informatique utilisant des technologies telles que Hadoop, HDFS, Hive, Spark SQL et PySpark, ainsi que Sqoop. Vos principales responsabilités seront les suivantes 🎯 : - Contribuer au maintien en conditions opérationnelles - Participer à la conception - Effectuer des développements - Assurer les livraisons - Réaliser les recettes

Freelance
CDI

Offre d'emploi
Data Scientist

1G-LINK CONSULTING
Publiée le
Data science
Google Cloud Platform
SQL

12 mois
10k-50k €
Paris, France

La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Au sein du pôle Data Intelligence, l’équipe Data Science qui compte aujourd’hui 3 Data Scientists, et deux Data Analyst recherche un Data Scientist. Objectifs de la prestation : L’équipe Data Science exploite les données & met en place le pilotage, la connaissance utilisateurs et la data science. La prestation consistera à participer à : - L’exploitation du socle de data pour mettre en place le pilotage des actions, en construisant des dashboards - L’analyse des profils et comportements des utilisateurs, en mettant en place les analyses des profils de vidéonautes, écortiquant les comportements selon les canaux d’acquisition, les contenus consommés, en analysant l’impact de la pression pub sur nos utilisateurs, - La mise en place de la data science : - Prédiction des audiences, - Enrichissement du catalogue via l’IAG - Prédiction de l’inactivité, des appétences, … - Segmentations

CDI
Freelance

Offre d'emploi
Data Engineer

Ipepper Groupe
Publiée le
Microsoft Power BI
Nosql
Python

12 mois
42k-55k €
Valbonne, Provence-Alpes-Côte d'Azur

iPepper recrute pour l'un de ses clients une PME éditeur de logiciel dans le domaine du voyage, un Data Engineer (H/F) passionné(e) et expérimenté(e) pour rejoindre une équipe dynamique. En tant qu'Ingénieur(e) Data, vous serez en charge d'extraire et de transformer des données, de construire et d'optimiser des pipelines de données, ainsi que de concevoir des visualisations de données intuitives et informatives. Responsabilités : Concevoir, construire et maintenir des pipelines de données évolutifs et efficaces pour transférer des données entre des bases de données SQL et NoSQL. Développer et mettre en œuvre des processus ETL pour extraire, transformer et charger des données à partir de différentes sources dans notre entrepôt de données. Collaborer avec des équipes pluridisciplinaires pour comprendre les besoins en données et garantir la fourniture réussie de solutions de données. Optimiser et ajuster les pipelines de données existants pour la performance et la fiabilité. Concevoir et développer des visualisations de données et des tableaux de bord pour fournir des insights exploitables aux parties prenantes. Surveiller et résoudre les problèmes de pipelines de données, en veillant à la qualité et à l'intégrité des données.

Freelance

Mission freelance
BA DATA

SQLI
Publiée le
Big Data

6 mois
500-600 €
Paris, France

Bonjour, Pour le compte de l'un de mes clients dans le secteur du luxe, je suis à la recherche d'un Business Analyst DATA. Le client souhaite remplacer la BA Data actuelle (4ans XP) par un BA Data plus expérimenté : 8 à 10 d’expérience. Nous avons environ 1 mois pour la remplacer ; c’est un poste clé du dispositif Datastore. Contexte : projet MDM produits dans le Cloud Azure, avec une équipe en Nearshore au Maroc (2 à 4 Data Engineers ; 1 Data Architecte, 1 CP, 1 QA). • Le BA sera responsable de glaner le besoin métier pour le retranscrire en spec fonctionnel/technique à l’équipe o Animation ateliers Business o Alimentation du backlog • Il travaillera sur plusieurs projets en parallèle : Run (correctif/évolutif), principalement sur les projets de transformation > modernisation du MDM, création d’un nouveau référentiel de données, … • Il supportera le CP Nearshore dans la coordination des activités, s’appuiera sur le Data Architect sur les aspects techniques • Il supportera les tests en collaboration avec le QA. • II sera responsable du maintient à jour de la documentation sous Confluence.

Freelance

Mission freelance
Data Analystes (Big Data) H/F

Insitoo Freelances
Publiée le
Big Data
MySQL
Python

2 ans
330-375 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Analystes (Big Data) H/F à Lille, Hauts-de-France, France. Les missions attendues par le Data Analystes (Big Data) H/F : Au sein de l’équipe Agile, le Data Analyste devra : Analyser des besoins fonctionnels et les traduire en solutions techniques via SQL Nettoyer, préparer et exposer les données en assurant leur qualité Manipuler les fichiers sous UNIX et HADOOP Suivre le run et gérer les erreurs Optimiser les traitements SQL Compétences requises : Esprit d’équipe et autonomie Maitrise du SQL et de ses optimisations => Obligatoire Bonnes connaissances de l’environnement HADOOP, UNIX et du SHELL Connaissances en Python Concepts de l’agilité Des connaissances de Cloudera/SAS Visual Analytics/DigDash ou Jupyter sont un plus Expérience souhaitée de 2 à 5 ans minimum sur un poste similaire

Freelance

Mission freelance
Senior Data SAP report SAP SuccessFactors H/F

Sqorus
Publiée le
Crystal Reports
Data visualisation
SAP

3 mois
280-580 €
Paris, France

En tant que Lead SAP BI HR Analytics , vous interviendrez sur l’ensemble de la conception et de la définition d’architectures Data. Dans le cadre d'un projet avec un de nos clients, acteur incontournable du tourisme, vous serez en charge du rôle de Lead Data pour assurer le développement et la livraison d'une trentaine (30) de rapports BI à destination de la Direction des Ressources Humaines. Ces rapports auront pour sources SAP SF depuis les modules Employee Central / PMGM / Onboarding et Compensation. Dans le cadre de cette mission, vos responsabilités seront les suivantes : Conseil : Accompagnement du bon déroulement des développements des rapports sous Report dans SAP SuccessFactors. Garant du suivi de projet auprès du client En charge de la vulgarisation et de l'accompagnement aussi bien technique que fonctionnel Technique et Delivery : Collecte, intégration et gestion de données provenant de diverses sources, en utilisant des technologies d'intégration de données. Conception de modèles de données adaptés et développements de rapports et tableaux de bords Rédaction de documentation fonctionnelle et/ou technique Responsable de la garantie et de la qualité du Delivery et des livrables Organisation et pilotage projet (COPIL, COSUI, COPROJ) Accompagnement à la recette Formation d’utilisateurs finaux et équipes projets

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous