Trouvez votre prochaine offre d’emploi ou de mission Big Data
Votre recherche renvoie 109 résultats.
Astuce
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php

Offre d'emploi Développeur Big Data
MSI Experts
Publiée le
40k-45k €
Lyon, Auvergne-Rhône-Alpes
Nous sommes à la recherche pour l’un de nos clients dans le secteur de l’énergie d’un développeur Big Data.
Ses missions tournent autour de 4 axes :
o Apporter une expertise en Big Data pour faciliter la manipulation des données
o Définir les solutions techniques permettant le traitement massif de données
o Mettre en place des solutions de stockage de données (SQL, NoSQL, etc.)
o Veiller la sécurisation et la clarté des pipelines de données pour faciliter l’analyse et la transformation
Il s’appuie si nécessaire sur les référents techniques des diverses briques si ces dernières sortent du cadre
de sa mission.
Activité principale :
o Assure la création, la maintenance, l’optimisation et la sécurité des bases de données
o Détecte, propose et suit les optimisations des requêtes SQL, PL/SQL afin de garantir les meilleures performances de nos applications métier
o Assure le support aux équipes de développement afin d’identifier et proposer des solutions performantes SGBD les mieux adaptées d’un point de vue métier
Activité secondaire :
o Veille technologique sur les outils utilisés au sein du projet
o Partage et formation sur les guides de bonnes conduites
Stack technique du projet :
Informatica, Java, Tableau Server, Oracle, Hadoop, Cascading, Maven, Hive, HDFS, Indexima, Control-M,
Git, Jenkins, Ansible, Spark, Terraform
Des astreintes sont à prévoir.
Lieu : Lyon
Télétravail possible à 50 : 2jours/sem et 3jrs/sem
Démarrage : 01/03/2024
Mission freelance Developpeur Java Big Data
ATOME
Publiée le
1 an
Paris, France
Concevoir et implémenter de nouvelles solutions techniques ;
Developper des solutions en s’appuyant sur des APIs internes & externes, et développer vos propres API ;
Exploiter les capacités de stockage et de traitements d’un écosystème Bigdata ;
Evoluer dans un environnement Agile (français / anglais).
Environnement technique :
Java 8-17, Python 2-3, Spark, Azure Datalake, Azure HDi, Azure Kubernetes, Linux, Jenkins, Maven, Sonar, Ansible, Spring boot, Spring Data Jpa, Sosgresql, Elasticsearch, Kibana

Mission freelance Développeur Big Data
ADSERVIO
Publiée le
1 an
350-440 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons pour l’un de nos clients dans le secteur de l’énergie un Développeur Big Data avec plus de 6 ans d’expériences.
MISSIONS PRINCIPALES :
o Apporter une expertise en Big Data pour faciliter la manipulation des données
o Définir les solutions techniques permettant le traitement massif de données
o Mettre en place des solutions de stockage de données (SQL, NoSQL, etc.)
o Veiller la sécurisation et la clarté des pipelines de données pour faciliter l’analyse et la transformation
o Assure la création, la maintenance, l’optimisation et la sécurité des bases de données
o Détecte, propose et suit les optimisations des requêtes SQL, PL/SQL afin de garantir les meilleures performances de nos applications métier
o Assure le support aux équipes de développement afin d’identifier et proposer des solutions performantes SGBD les mieux adaptées d’un point de vue métier
o Veille technologique sur les outils utilisés au sein du projet
o Partage et formation sur les guides de bonnes conduites
ENVIRONNEMENT TECHNIQUE :
nformatica, Java, Tableau Server, Oracle, Hadoop, Cascading, Maven, Hive, HDFS, Indexima, Control-M, Git, Jenkins, Ansible, Spark, Terraform
DETAILS MISSIONS :
Localisation : Lyon
Date de début : 01/03/2024
TJM : selon profil
Travail Hybride

Mission freelance Administrateur plateforme big data
Gentis Recruitment SAS
Publiée le
1 an
Paris, France
Nous sommes à la recherche d’un profil pour l’administration des plateformes type Hadoop et des clusters ElasticSearch pour une mission d’assistance technique pour l’un de nos client grand compte dans le secteur bancaire
Tâches à réaliser :
Installation et configuration des différents distributions sur Hadoop
Installation et configuration des différents composants : Zookeeper, HDFS, Spark, Hive, Kerberos, Sentry, Anaconda, Hue, Kafka,
Monitoring des clusters avec Ambari, Cloudera manager
Administration des clusters : droits d’accès, Policy Ranger, création d’environnements,
CI/CD Ansible, Jenkins,
Développement des playbooks Ansible
Optimisation des clusters ElasticSearch et Kafka à tous les niveaux notamment sur les parties requêtes, utilisation des features, architecture et performance
Compétences recherchées :
Maitrise ElasticSearch ELK
Maitrise Ansible Tower
Maitrise des grands usages et intégration de Dynatrace
Expérience nécessaire : de 3 à 5 années minimum
Méthodologie : Scrum, Safe et Kanban

Offre d'emploi Ingénieur Big data H/F
Proxiad
Publiée le
Val-de-Marne, France
La mission sera, au sein du domaine PGER , de mener une analyse fine de l’implémentation existante basée sur la distribution Hadoop Cloudera et de proposer/mettre en place des solutions permettant au système d’afficher des performances optimales sur les traitements quotidiens, et d’identifier/sécuriser les points de reprise en cas d’incidents.
Le consultant sera amené, à travailler en méthode Agile avec les acteurs projet.
Expertises spécifiques :
Compétences recherchées :
Maitrise de l’écosystème Hadoop particulièrement la distribution Cloudera ( HDFS, HIVE, HBASE, YARN, TEZ,RANGER..)
Maitrise de Spark ( développement de jobs , analyse des logs, recherche de bug optimisation des traitements, Analyse du DAG)
Maitrise de JAVA 8
Maitrise de SQL.
Idéalement connaissance dans le DevOps ( Jenkins, Bitbucket, XLDeploy,Sonar)
Bonne communication, autonomie et fluidité du travail en équipe.
Description :
Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise
Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent.

Mission freelance Consultant SI Big Data Hadoop
CELAD
Publiée le
1 an
500 €
Paris, France
La DSI Corporate met en place sur le projet Base des Pertes une solution basée sur les technologies Big Data.
La mission sera, au sein du domaine Pertes, Garanties et Entrepôt Risques , de mener une analyse fine de l’implémentation existante basée sur la distribution Hadoop Cloudera et de proposer/mettre en place des solutions permettant au système d’afficher des performances optimales sur les traitements quotidiens, et d’identifier/sécuriser les points de reprise en cas d’incidents.
Le consultant sera amené, à travailler en méthode Agile avec les acteurs projet.
Description :
Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise
Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent
Activités et tâches :
Acheminement de la donnée
Mise à disposition de la donnée aux équipes utilisatrices
Mise en production de modèles statistiques
Suivi de projet de développement
Développement job spark

Mission freelance Ingé prod / Big Data / Hadoop
OCSI
Publiée le
2 ans
Paris, France
Assurer le maintien en conditions opérationnelles des environnements en collaboration avec les N3
Traitement des incidents d’exploitation sur tous les environnements : analyse, diagnostic et implémentation de solutions
Assistance aux clients dans leur optimisation de traitements / requêtes
Astreintes 2 jours par mois déclenchées sur incident, à se répartir sur l’équipe support
Automatisation de l’infrastructure BigData / actions récurrentes via ANSIBLE
Implémentation des recommandations N3
Participer aux déploiements de cluster
Produire de la documentation sous Confluence, Git mais aussi Jira en renseignant les détails de résolution
Agilité à l’échelle sur toutes les équipes, participation aux rituels SCRUM

Mission freelance Data engineer Montpellier Big Data, Scala ou Java
WorldWide People
Publiée le
Big Data
6 mois
300-400 €
Montpellier, Occitanie
Data engineer Montpellier Big Data, Scala/Java (expérience obligatoire dans l’un des deux langages)
Ecosystème Big Data (Hadoop, Spark, Apache Kafka, Avro ...)
+ 1j/3sem à Massy" Janvier "Contexte
Au sein de la direction « Plateforme Data », le consultant intégrera une équipe SCRUM et se concentrera sur un périmètre fonctionnel spécifique. Son rôle consistera à contribuer à des projets data en apportant son expertise
Profil
Diplômé(e) d’un Bac+5 en école d'ingénieur ou équivalent universitaire avec une spécialisation en informatique.
Expérience souhaitée de plus de 3 ans en tant que Data Engineer.
Compétences
Expérience en architecture de systèmes distribués Big Data
Scala/Java (expérience obligatoire dans l’un des deux langages)
Ecosystème Big Data (Hadoop, Spark, Apache Kafka, Avro ...)
Maîtrise de la CI/CD et des outils de déploiement et orchestration (Jenkins, GitLab, Kubernetes,Docker, Ansible …)
Concepts fondamentaux de Kafka
Bases de données NoSQL (Cassandra, BigTable…)
Moteur de recherche (Elastic Search...)"

Offre d'emploi Expert Big data H/F
Proxiad
Publiée le
HDFS (Hadoop Distributed File System)
J2EE / Java EE
Spark Streaming
Paris, France
La mission sera, au sein du domaine Pertes, Garanties et Entrepôt Risques , de mener une analyse fine de l’implémentation existante basée sur la distribution Hadoop Cloudera et de proposer/mettre en place des solutions permettant au système d’afficher des performances optimales sur les traitements quotidiens, et d’identifier/sécuriser les points de reprise en cas d’incidents.
Le consultant sera amené, à travailler en méthode Agile avec les acteurs projet.
Expertises spécifiques :
Compétences recherchées :
Maitrise de l’écosystème Hadoop particulièrement la distribution Cloudera ( HDFS, HIVE, HBASE, YARN, TEZ,RANGER..)
Maitrise de Spark ( développement de jobs , analyse des logs, recherche de bug optimisation des traitements, Analyse du DAG)
Maitrise de JAVA 8
Maitrise de SQL.
Idéalement connaissance dans le DevOps ( Jenkins, Bitbucket, XLDeploy,Sonar)
Bonne communication, autonomie et fluidité du travail en équipe.
Description :
Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise
Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent.

Mission freelance ARCHITECTE DATA / Snowflake / Big Data / cloud / LILLE
ARDEMIS PARTNERS
Publiée le
1 an
500-580 €
Lille, Hauts-de-France
Intégré au sein du département Architecture d’Entreprise en DSI, vous intervenez pour renforcer l’équipe d’architectes data, dont la mission est de garantir le traitement, l’utilisation et la circulation des données au sein du SI en cohérence avec les ambitions et contraintes de l’Entreprise. Ainsi, vous agissez à favoriser sur le long terme l’alignement stratégique du SI, la réactivité nécessaire et la réduction des coûts.
Voici vos principales missions :
Vous contribuez à l’identification des objets métier de l’Entreprise, vous créez et maintenez le lien entre les objets applicatifs et le modèle d’Objet métier d’Entreprise pour cadrer leurs déclinaisons au sein des projets et des produits IT.
Vous contribuez à la démarche de convergences des SI du groupe sous l’angle de la donnée (dictionnaire de la donnée commun, cible d’architecture data groupe, définition des étapes de transformation,...)
Vous assurez que la solution implémentée est conforme en exploitant au mieux les possibilités de l’état de l’art, lors de points de contrôle répartis dans le cycle de vie des projets (animation de Design Authorities et de Comités d’Architecture)
Vous garantissez la cohérente du référentiel d’architecture ainsi que son intégrité, depuis les objets applicatifs, liens vers les objets métier jusqu’aux implémentations physiques
Vous aidez à l’amélioration du référentiel pour mieux couvrir les besoins de l’architecture de donnée
Vous contribuez à la gouvernance de la donnée par une collaboration avec les équipes porteuses de la démarche ; vous animez et pilotez la cartographie des données du SI
Vous construisez des vues transverses du SI destinées a comprendre le cycle de vie de la donnée de bout en bout dans le SI (data lineage)
Vous développez la pratique d’architecture de données au sein de la DSI (vous communiquez les principes et le processus d’architecture des données, vous coachez aux pratiques d’architecture de données), vous participez à la communauté des architectes du Groupe et contribuez à la convergence (les pratiques, les solutions, les mutualisations ) inscrite à la stratégie d’Entreprise
Vous anticipez l’amélioration continue des pratiques d’Architecture de données dans l’Entreprise

Offre d'emploi TECH LEAD BIG DATA GCP H/F
Frank Recruitment Group Services Ltd
Publiée le
70k-90k €
Île-de-France, France
FRG Consulting recherche pour un cabinet de conseil en plein essor spécialisé dans les domaines de la data et de l'intelligence artificielle, un Tech Lead Big DATA GCP. Leur mission est d'accompagner leurs clients dans la valorisation de leurs données pour optimiser leurs performances et leur prise de décision.
Description du poste :
En tant que Tech Lead Big Data Expert en GCP, vous occuperez un rôle clé, combinant une expertise technique solide en Big Data sur Google Cloud Platform (GCP) avec une dimension managériale transverse auprès des équipes techniques et commerciales.
Responsabilités :
Concevoir et développer des solutions Big Data avancées sur GCP en utilisant des outils tels que dbt, Dataflow, Terraform et Docker.
Diriger une équipe technique de 2 à 3 Data Engineers, les encadrer, les former et les accompagner dans la réalisation des projets.
Utiliser votre bagage technique de Software Engineer pour garantir la qualité du code, l'optimisation des performances et l'adoption des meilleures pratiques de développement logiciel.
Assurer une liaison étroite avec les équipes commerciales pour comprendre les besoins des clients, proposer des solutions techniques adaptées et garantir la réussite des projets.
Collaborer avec les équipes de vente pour apporter un support technique lors des phases pré et post-vente, en présentant des solutions techniques de manière claire et convaincante.
Contribuer à la définition et à l'évolution de l'architecture Big Data, en assurant l'évolutivité, la fiabilité et les performances des solutions.
Maintenir une veille technologique constante pour intégrer les avancées et meilleures pratiques dans les projets, tout en partageant cette expertise avec les équipes.
Exigences :
Minimum de 5 ans d'expérience en tant que Software Engineer avec une expertise spécifique dans le domaine du Big Data sur la Google Cloud Platform.
Solides compétences en programmation et en développement logiciel, avec une capacité à assurer la qualité du code et l'optimisation des performances.
Maîtrise avancée de dbt, Dataflow, Terraform et Docker pour le déploiement et la gestion de solutions Big Data.
Au moins 2 certifications Google Cloud Platform (GCP) attestant d'une expertise technique.
Expérience avérée dans la gestion et le leadership d'équipes techniques, avec une capacité à former, encadrer et motiver.
Excellentes compétences en communication pour interagir efficacement avec les équipes techniques et commerciales, ainsi qu'avec les clients.
Capacité démontrée à comprendre les besoins métier et à traduire ces besoins en solutions techniques.
Avantages :
Rejoindre une équipe dynamique et innovante évoluant dans un environnement stimulant.
Participer à des projets de pointe dans le domaine de la data et de l'IA.
Possibilité de contribuer activement à la croissance et à l'évolution de l'entreprise.
Perspectives d'évolution professionnelle au sein d'une entreprise en croissance.

Mission freelance Architecte Big Data Machine Learning F/H
SOFTEAM
Publiée le
Big Data
6 mois
500-620 €
Paris, France
Description et livrables de la prestation
Au sein de l’équipe Socles Big Data et Machine Learning, l’architecte solution Big Data et ML
sera amené à:
Contribuer à l’évolution de l’offre de service de la plateforme Big Data
Définir et maintenir le cadre de référence des principes d’architecture Big Data
D’accompagner les développeurs dans l’appropriation de ce cadre de référence,
Définir les solutions permettant de répondre aux besoin d’exposition, de consommation ou d’export de données des métiers
D’accompagner les développeurs et les différentes parties prenantes dans la mise en œuvre des solutions proposées
Mission principale :
- Définition de socle technique en fonction de la roadmap 2024
Mission freelance Tech Lead Big Data - Spark
DLA CONSEIL
Publiée le
1 an
Biot, Provence-Alpes-Côte d'Azur
Contexte de la prestation
L’URSSAF est devenu opérateur de service essentiel de la DSN (Déclaration Sociale Nominative). A ce titre, elle a l’ambition de devenir l’opérateur de référence de la fiabilisation de la DSN dans l’objectif de fiabiliser le Recouvrement des cotisations sociales et les droits des salariés. Pour atteindre cet objectif, l’URSSAF opère une transformation de son système d’information DSN en mettant le big data au cœur de son architecture de traitement de la donnée.
Objectifs de la prestation : Tech Lead Big Data - Spark
Télétravail : 100 pourcent
Missions :
- Participer à la revue des exigences (User Stories) avec les membres du triptyque PO/proxy PO/Assistant PO et à la spécification des critères d’acceptation
- Porter la conception technique des solutions mises en œuvre
- Porter la mise en œuvre des enablers exploration de solution (POC) , changement d’infrastructure , changement d’architecture , Industrialisation
- Participer à l’évaluation des charges de développement
- Participer au sprint en tant que développeur expert
- Assurer le support technique aux développeurs
- Garantir le respect des normes de développement
- Garantir la qualité des livrables Logiciels et Documentaires
Compétences requises :
- Expérience minimum de 5 ans en tant que Tech Lead Big Data dont 3 ans sur Spark, et au moins un projet Big Data Spark mené de bout en bout jusqu’à la production,
- Expertise de l’écosystème Hadoop et Cloudera (Spark, Parquet, Oozie, HDFS, S3, )

Mission freelance Intégrateur big data
Proxiad
Publiée le
3 ans
Paris, France
Description du projet :
Assurer :
L’intégration des solutions PowerBI/Snowflake/SSIS/Data Factory dans le cadre de projets
L’Intégration de la solution Datastage - projet montée de version
Point d’entrée pour les incidents N3 (run)
Autonome sur les technologies suivantes (classées par priorité) :
Base de données :
- Postgres ++
- MongoDB ++
- MariaDB ++
- Oracle ++
- SQL Server ++
ETL :
-Datastage (adminstrateur/intergrateur du produit)
- SSIS ++
- Data Factory ++++
Datalake :
- Snowflake +++
Outil de restitution :
-PowerBI ++++
La prestation devra être réalisée autour de 2 grandes missions principales:
1. Mode projet - Integration des composants applicatifs :
analyser les besoins projets identifiés dans le DAT (Document d’Architecture Technique)
déployer/configurer les composants de la solution
appliquer les règles de sécurités en vigueur (RSSI)
rédiger le dossier d’installation (infrastructure) et la recette technique
documenter le DEX (Dossier d’Exploitation)
accompagner les équipes d’exploitations pour la mise en production
2. Support incident de niveau N3
assurer le support sur tous les environnements
être point d’entrée avec les éditeurs (Microsoft, IBM etc...)
assurer la veille technologique
identifier les failles de sécurité - proposer du patching
Le prestataire devra posséder un savoir être sans faille:
Relationnel, travail en équipe
Ouvert à l’échange
Solidaire des autres intervenants
Capacité à expliquer, à former
MAJ documentaire :
DI - Dossiers d’installation
Cahiers de recette technique
DEX - Dossiers d’exploitation

Mission freelance Big Data (H/F)
Anywr freelance
Publiée le
1 an
Lille, Hauts-de-France
Au sein d’un environnement riche et complexe, vous évoluerez avec des experts passionné(e)s à la fois techniques et fonctionnels (Ingénieurs spécialisées, chef de projet, scrum master, product owner, analystes...).
Stacks Technique:
ETL Talend
Python
Spark
Hadoop / SQL Server
Vous justifiez idéalement d’une expérience d’au moins 5 ans sur un poste similaire.
Votre curiosité, proactivité et votre esprit d’équipe seront vos meilleurs atouts !

Mission freelance Architecte DATA Big Data, NoSQL Hadoop Spark ETL (Talend) ML
WorldWide People
Publiée le
Apache Spark
BigQuery
Hadoop
12 mois
450-490 €
Mer, Centre-Val de Loire
Architecte DATA Big Data, NoSQL Hadoop Spark ETL (Talend) ML
Localisation : Mer (gare à proximité à 5 min du client)
Besoin :
Rôle transverse et en relation étroite avec CDO, CISO, DPO, architectes fonctionnels et architectes techniques, les chefs de projets de la DSI, cellule Data de la Direction des Opérations
Proposer et optimiser les architectures de données en lien avec les projets. Pour traduire les besoins en solution d’hébergement (On Prem / Cloud), en solutions de stockage de données (structurées / non-structurées), en organisation de données (Datalake, Datawarehouse) et modalités d’alimentation et des restitutions.
S’assure du respect des usages, normes et standards Groupe et leur traduction dans le contexte client (dictionnaire de données). Ceci inclut la bonne gestion des données de référence, des métadonnées et de leur sécurité.
Participation aux comités de gouvernance des données, qualité des données, d’architecture, etc.
Participation au traitement des recommandations d’audit :
• Schéma directeur data
• Définition des principes de stockage, conservation et restitution des données sensibles (DCP) dans de DWH et dans les SI client
Participation aux ateliers de la communauté Data du Groupe
• Pour assurer une veille organisationnelle et technologique
• Pour entendre et répercuter les REX groupe
• Pour représenter le client et présenter les REX et usages client
Etre en mesure de solliciter pertinemment et challenger les interlocuteurs techniques et les fournisseurs (infogérants et éditeurs) sur les sujets Data : Cloud, choix de technos.
Profil
Parcours : connaissance des architectures DATA avec expérience minimum de 3 ans sur un poste similaire
Connaissances / Compétences / Savoir être :
Maîtriser les principales technologies de bases de données (Relationnelles, Big Data, NoSQL), d'infrastructures serveurs (Hadoop, Spark), des technologies de streaming, des ETL (Talend), des outils de data visualisation (Cognos, PowerBI) et de Data Science (Python, MLOps), des API
Connaissance en IA et en Machine Learning
Maitrise du contexte réglementaire (RGPD, AI Act) et de l’état de l’art de la gouvernance de données et de la sécurité associée
Connaissances fonctionnelles banques/valeurs mobilières
Aisance relationnelle : capacité à créer du lien autour de la donnée, de convaincre, d’engager et de travailler en en équipe
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes
Paris
Marseille
Lyon
Toulouse
Nice
Nantes
Montpellier
Strasbourg
Bordeaux
Lille
Rennes
Reims
Saint-Étienne
Le Havre
Toulon
Grenoble
Dijon
Angers
Nîmes
Villeurbanne
Saint-Denis
Le Mans
Aix-en-Provence
Clermont-Ferrand
Brest
Tours
Amiens
Limoges
Annecy
Perpignan
Boulogne-Billancourt
Besançon
Metz
Orléans
Rouen
Argenteuil
Mulhouse
Montreuil
Caen
Nancy
Saint-Paul
Tourcoing
Roubaix
Nanterre
Avignon
Vitry-sur-Seine
Poitiers
Créteil
Dunkerque
Versailles
Asnières-sur-Seine
Aubervilliers
Colombes

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !