Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 208 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI
Freelance

Offre d'emploi
Ingénieur Big Data - DevOps (H/F)

VISIAN
Publiée le
Apache Kafka
Apache Spark
Docker

3 mois
40k-65k €
Marseille, Provence-Alpes-Côte d'Azur

Orienté Big Data et ayant des compétences dans les domaines listés ci-joint : Kafka, Spark, Hbase, Hive, Hadoop, Jenkins, Ansible, Github, Scala, Python, Linux, Kube, Linux. Objectifs et livrables L’expertise technique sur le Datalake (plateforme Big Data) consistera à : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake : gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de mises en production · Contribuer à l’amélioration continue des outils d’exploitation · Communication auprès des utilisateurs finaux Le consultant devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

CDI

Offre d'emploi
Ingénieur Data / BI H/F

ENGIT
Publiée le
BI
Big Data

10k-55k €
Toulouse, Occitanie

📊🚀 Rejoignez notre équipe en tant qu’Ingénieur(e) Data & BI ! Vous êtes un(e) passionné(e) dans le domaine de la Data et de la BI, avec une expérience de plus de 5 ans ? Vous recherchez un environnement stimulant où vous pourrez mettre en œuvre vos compétences et contribuer à des projets novateurs ? Nous vous offrons l'opportunité de rejoindre une entreprise innovante. En tant qu’Ingénieur(e) Data & BI, vos missions principales seront de : · Assurer la continuité de tous les services de reporting data (rapports, dashboards, etc.) tout en mettant en place une nouvelle architecture. · Piloter la partie Data sur un projet de migration, en combinant une approche LCM (Lifecycle Management) et des solutions innovantes. · Concevoir des solutions de migration de données en assurant un très bon niveau de conception. · Travailler dans un environnement de Business Intelligence traditionnelle avec un usage fréquent de QlikView et PowerBI. · Faire preuve d'une grande autonomie et d'une appétence à comprendre les enjeux techniques et fonctionnels de l'environnement pour proposer des solutions adaptées. · Développer une excellente capacité d'analyse, une bonne capacité de synthèse, une curiosité naturelle et une force de proposition. · Communiquer efficacement avec les différentes parties prenantes du projet et assurer une coordination optimale des activités.

CDI
Freelance

Offre d'emploi
data product owner AND supply chain H/F

5COM Consulting
Publiée le
Big Data
Supply Chain

3 ans
43k-70k €
Nanterre, Île-de-France

Missions : En charge d’identifier les données nécessaires à la construction des KPIs et des produits analytiques et de l'exploration et de la compréhension des modèles de données liées à la supply chain dans les différents pays, le Data Product Owner sera responsable de : Obtention, compréhension et documentation approfondie des modèles de données existants dans chaque pays, en s’appuyant sur les coordinateurs et les Business owner au sein de la direction supply chain groupe Identification des règles de gestion spécifiques, des exceptions par format, pays, secteur de produit, et autres critères pertinents. Delivery : Pour assurer une harmonisation efficace des modèles de données à l'échelle du groupe, le Data Product Owner sera chargé de : Rédaction de spécifications détaillées pour adapter les modèles locaux au modèle harmonisé du groupe. Adaptation du modèle harmonisé en fonction des particularités propres à chaque pays, tout en assurant l'alignement sur les standards du groupe. Écriture et ajustement du modèle pour répondre aux besoins spécifiques des principaux indicateurs de performance (KPI) identifiés. Présentation des spécifications auprès des data engineer de united et animation du backlog sur ce domaine Tester et valider la donnée en sortie de United Data Governance & Communication : En tant que garant de la qualité des données en sortie de l'unité, le Data Product Owner aura pour missions de : Valider la documentation générée auprès des autres Data Product Owners et des parties prenantes impliquées. Documenter et communiquer régulièrement sur l'avancement du projet aux responsables produits et autres parties prenantes pertinentes Mettre en place des processus spécifiques pour gérer l'accès et la confidentialité des données, en impliquant activement les responsables métiers au sein de chaque pays. Participer activement aux ateliers d'harmonisation organisés au niveau du groupe, notamment au sein du data afin de favoriser la cohérence et la convergence des pratiques.

Freelance
CDI

Offre d'emploi
Product Owner Data/IA

skiils
Publiée le
Big Data
Data science
Intelligence artificielle

12 mois
47k-90k €
Paris, France

La prestation proposée consiste à être Product Owner au sein de l'équipe dédiée aux rédactions, et plus particulièrement au sein d'un squad composé également de data scientist, data engineer, ingénieurs développements pour les outils métiers existant, ... Gestion projet : Construction et suivi de l’exécution des plannings (tâches, charges, ressources, avancement) Pilotage de la qualité des livrables Rapports réguliers d’avancement Animation des comités et rituels projets Besoin prestations : Analyse des processus métiers, découpage en cas d'usage, rédaction des user stories Alimentation du backlog produit Identification des gains apportés par les projets et fonctionnalités Participation à la rédaction des spécifications techniques et fonctionnelles détaillées des développements à réaliser. Développement / Validation / Déploiement : Coordonner les équipes techniques de développements jusqu'au delivery Coordonner le déploiement, mise en production et éventuel accompagnement utilisateurs

Freelance

Mission freelance
Big Data Tech Lead H/F

NAVIGACOM
Publiée le
Big Data
Cloud

12 mois
100-1 100 €
Yvelines, France

Missions En tant que Tech Lead Data, votre rôle principal sera de diriger avec succès le déploiement de l'architecture Big Data dans l'écosystème informatique cloud. Vous serez le principal interlocuteur entre l'équipe d'architecture et les développeurs et serez responsable de la bonne mise en œuvre des architectures définies dans les délais impartis. Vos tâches seront les suivantes : Concevoir, mettre en œuvre et déployer une architecture dans le cloud pour des projets Big Data : Travailler avec les architectes pour concevoir une architecture de pointe pour les projets Big Data dans un contexte de volumétrie élevée. Implémenter les architectures définies selon le planning et les exigences définis. Excellence technique : Satisfaire aux exigences du Big Data, capacité à travailler dans un contexte de volumétrie élevée. Remettre en question les décisions architecturales clés en fonction d'un contexte spécifique (topologie des données, volume, exigence de temps d'exécution, etc.). Optimiser le traitement et le stockage des données pour l'efficacité. Assurer un dépannage rapide des problèmes avec la surveillance appropriée . Gestion de projet : Superviser plusieurs projets en parallèle , en veillant à ce que les délais soient respectés, les normes maintenues et les objectifs atteints. Collaboration : Agir comme le lien principal entre l'architecture et la mise en œuvre dans le projet. Travailler en étroite collaboration avec d'autres responsables techniques et architectes . Échanger des connaissances et se synchroniser avec d'autres équipes. Gouvernance des données : Garantir le respect des politiques de gouvernance des données liées à l'industrie financière. Documentation : Superviser la création et la maintenance d'une documentation précise des développements, des procédures techniques et des configurations système pour améliorer les connaissances et faciliter les processus d'intégration pour l'équipe.

Freelance

Mission freelance
Data Ingénieur Big Data

KEONI CONSULTING
Publiée le
Agile Scrum
Hadoop
PySpark

12 mois
100-400 €
Bordeaux, Nouvelle-Aquitaine

Contexte de la mission : Dans une équipe de 6 personnes en multi sites, le consultant participera aux développements informatiques sur les technologies Hadoop, HDFS, Hive, Spark Sql et PySpark, Sqoop MISSIONS : · Participation au maintien en conditions opérationnelles · Conception · Développements · Livraisons · Recettes MISSIONS : · Participation au maintien en conditions opérationnelles · Conception · Développements · Livraisons · Recettes

Freelance

Mission freelance
Expert Technique DATA

SQLI
Publiée le
Big Data

6 mois
500-600 €
Lyon, Auvergne-Rhône-Alpes

Bonjour, Pour le compte de l'un de mes clients dans le secteur de l'énergie, je suis à la rercherche d'un expert technique en DATA. Ses impératifs : Une expérience technique forte en Data Et XP Responsable d'équipe de développement +10personnes. Une culture générale technique sur l’ensemble de la chaîne de création de valeur et de l’environnement de dev jusqu’à la prod. Une connaissance sérieuse des problématiques sécurité, performance et robustesse Stack technique du projet : o Big Data : Spark, Hive, Indexima. o Stockage : Oracle, CEPH S3 (parquet). o Langages : Java, Python, PL/SQL, Shell. o CI/CD : Ansible, Terraform, Jenkins, GIT. o ETL : Informatica. o Dataviz : Tableau Server. o Ordonnanceur : Control-M.

Freelance

Mission freelance
Support Data Engineer H/F

Agate IT
Publiée le
Big Data
Python
SQL

3 ans
550-700 €
Paris, France

Description du poste : En tant que Data Support analyste, vous serez responsable de fournir un soutien technique et opérationnel pour les systèmes et les processus liés aux données au sein du département de Data Technology. Vous travaillerez en étroite collaboration avec les équipes de développement et de data ingénierie pour résoudre les problèmes liés à la data, assurer la qualité des données et maintenir la disponibilité des systèmes. Responsabilités : 1. Soutien technique : Diagnostiquer et résoudre les problèmes liés aux données, tels que les erreurs de chargement, les incohérences de données et les performances dégradées. Collaborer avec les équipes Data pour résoudre les problèmes techniques et d'intégration liés aux données. 2. Gestion de la qualité des données : Surveiller et analyser la qualité des données, identifier les anomalies et les incohérences, et proposer des solutions pour améliorer la qualité des données. Mettre en place des contrôles de qualité des données pour garantir la précision, la cohérence et l'intégrité des données. Participer à la définition et à la mise en œuvre des normes et des bonnes pratiques de gestion de la qualité des données. 3. Maintenance et support opérationnel : Assurer la disponibilité des systèmes de données en surveillant les performances et en gérant les problèmes de capacité. Collaborer avec les équipes de développement pour effectuer des mises à jour logicielles, des correctifs de bugs et des améliorations des fonctionnalités des systèmes de données. Documenter les procédures opérationnelles et les problèmes rencontrés, ainsi que les solutions mises en œuvre, pour faciliter le support et la résolution de problèmes ultérieurs. Être proactif sur l’amélioration des process et outils. 4. Formation et communication : Collaborer avec les différentes équipes pour communiquer les changements, les mises à jour et les problèmes liés aux données de manière claire et concise. Participer à des réunions et à des projets interfonctionnels pour fournir un aperçu et un soutien relatif aux données.

Freelance
CDI

Offre d'emploi
PO DATA / IA

VISIAN
Publiée le
Big Data
Data science
Intelligence artificielle

1 an
10k-60k €
Paris, France

Collaboration étroite avec les parties prenantes pour comprendre les besoins et les objectifs: Recueil du besoin auprès des utilisateurs et définition des cas d'usage Entretiens individuels Workshop UX research Ateliers de conception détaillée avec l'équipe UX/UI Déclinaisons des parcours et rédaction des users stories Respect de la méthode INVEST Utilisation de l'outil JIRA Gestion du backlog de produits et définition des exigences du produit Planification et priorisation des fonctionnalités du produit Coordination des équipes de développement et suivi de l'avancement du projet Validation et acceptation des fonctionnalités développées Communication régulière avec l'équipe et les parties prenantes pour assurer la satisfaction du produit Analyse des données et des retours utilisateurs pour orienter les décisions de développement Participation aux réunions de planification, de rétrospective et de revue de sprint Production de supports de communication Travailler en étroite collaboration avec les équipes de data scientists, d'ingénieurs en IA, ainsi qu'avec les experts métiers pour définir les besoins et les spécifications techniques des projets

Freelance
CDI

Offre d'emploi
Développement backend SQL/clickhouse

Digistrat consulting
Publiée le
Apache
Big Data
DevOps

3 ans
40k-60k €
Paris, France

Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un développeur backend SQL/clikhouse. Périmètre fonctionnel : banque d'investissement Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, base de donées distribuée avec un systel de cache in memory, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins. Les principales tâches de la missions sont les suivantes : Le but est d'développer des nouvelles fonctionnalités demandées par le trading, et aussi techniquement améliorer la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions. Le candidat sera chargé de la partie back end ainsi que de la partie devops.

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

Freelance

Mission freelance
Référent technique MLOps

CAT-AMANIA
Publiée le
Apache Kafka
Docker
Elasticsearch

2 ans
500-680 €
Paris, France

Au sein d'un client du domaine bancaire, vous intervenez au sein de la DSI en qualité de Référent technique MLOps. Dans ce cadre, votre quotidien s'articule autour des missions suivantes : mettre en place l'outillage Datascience et MLOPS et identifier les patterns pour un usage global évaluer et adpoter de nouvelles technologies et méthodologie pour améliorer les processus MLOps et l'efficacité de l'équipe Diriger l'élaboration et la mise en oeuvre de pipelineSuperviser et encadrer une équipe technique, en fournissant une orientation technique, en fixant des objectifs et en assurant la montée en compétence des équipes interne Participer à l'exploration continue (étude d'opportunité, cadrage) et aider à estimer l'effort et la valeur délivrée par les choix de designs éligibles pour favoriser la priorisation par le Product Owner et le Pôle Utilisateur (évolutivité, testabilité, déployabilité...) Collaborer avec les parties prenantes internes pour comprendre les besoins métier et fournir des solutions ML efficaces et évolutives Décliner le cadre d’Architecture d’Entreprise(processus, normes, patterns …) et contribuer à son évolution Faciliter la prise de décision de manière collaborative sur la meilleure architecture (conformité, sécurité, risques...), avec un juste équilibre entre le respect de la cible d'entreprise et la réponse pragmatique au besoin Maitrise les objectifs visés par le cadre d'Architecture d’Entreprise et décrit des solutions qui s'y conforment et sont implémentables sous forme incrémentale dans les sprints Suivre et facilite la visibilité de la conformité des solutions de son périmètre par rapport à la stratégie d'entreprise Responsable de la documentation produit(s) en veillant à sa pertinence, fiabilité et sa cohérence avec les cadres de référence de l'architecture (processus, guides, patterns...).s / solutions MLOps pour l'entrainement, le déploiement et la surveillance des modèles ML

Freelance

Mission freelance
Ingénieur full stack Python / Vue Js / Node Js

Etixway
Publiée le
Docker
Flask
Gitlab

1 an
440-500 €
Île-de-France, France

Ingénieur full stack Python / Vue Js / Node Js Niveau requis plus de 8 ans d'expériences Maîtrise des langages d’analyse et de traitement de données (Python Flask – Pandas – Plotly…etc) en POO (Programmation Orientée Objet) Maîtrise des langages de développement front-end (SPA vue.js, node.js) Pratiques de développement et déploiement continue (Gitlab, Docker, SonarQube, CheckMarx, …) Maitrise des architectures BigData (Hadoop, HBase, HDFS) Animation d’ateliers de conception et de communauté Autres Compétences souhaitées Sens du service (volonté forte de faire avancer les chantiers, capacité à analyser les demandes, à aller au bout des besoins) Etre autonome et savoir rendre compte Qualité relationnelle et capacité à travailler en équipe Sens de l’initiative et force de proposition Rigueur et qualité rédactionnelle (documents de capitalisation, documents de synthèse des interventions, formalisation et planification des tâches) Capacité à coacher et faire progresser les autres Adaptabilité aux contextes grands comptes

Freelance
CDI

Offre d'emploi
Expert Big Data & GCP

KLETA
Publiée le
Ansible
Apache Kafka
Apache Spark

2 ans
10k-88k €
Paris, France

Au sein d'une équipe d'expertise sur le volet Ops & Architecture vous intégrez la team en tant qu'architecte Cloud GCP & DevOps Big Data. Vos missions sur ce volet : Administration de la plateforme Hadoop présente Développer et continuer la migration vers GCP sur certaines applications Excellente maîtrise de Kubernetes attendues Connaissance complète de l'environnement Big Data et de la culture DevOps (Hadoop, Kafka, Elastic, Ansible, Kubernetes...) Endosser le rôle de référent technique sur le sujet Big Data

CDI

Offre d'emploi
Chef de projet Infra/Obsolescence - H/F

TRSB
Publiée le
Hadoop
KPI
Kubernetes

44k-51k €
Paris, France

Mission : Piloter le programme Obsolescence en assurant l’exécution du plan de levée d’obsolescence du socle et piloter le dispositif global associé. · Consolide le plan pluriannuel de levée d’obsolescence à partir des roadmap Produits, en lien avec les PO et les Responsables d’Activités ; · Pour chaque année, définit le plan de traitement : inventaires consolidés, périmètres d’actions et objectifs de traitement, budget et ressources ; · Engage les projets associées du Plan Projets et organise les travaux ; · Coordonne la communauté des Squad leads du socle et leurs PO et tout autre ressources engagés dans le programme ; · Définit et publie les KPI de suivi ; et réalise les Contrôles Permanents associés · Gère les budgets ; · Gère les risques et met en œuvre les mesures d’atténuation ; · Suit les demandes de dérogations et alerte sur les risques associés (financier, sécurité, opérationnel) ; · Organise et anime les Comités associés : mensuels NDC, stratégiques · Contribue à l’animation et à la performance du Processus de Gestion des Obsolescences

Freelance

Mission freelance
Consultant Data et BI expérimenté (Power BI et ETL Talend) H/F

LeHibou
Publiée le
Big Data

6 mois
450-600 €
Saint-Denis, Île-de-France

Notre client dans le secteur Assurance recherche un/une Consultant Data et BI expérimenté (Power BI et ETL Talend) H/F Description de la mission: Le client est un acteur majeur du secteur de l'assurance/assistance. Fondé en 1963 et inventeur du concept d'assistance, le client soutient 300 millions de clients dans le monde entier avec des solutions adaptées à toute situation d'urgence ou de la vie quotidienne, 24/7, dans cinq secteurs d'activité : Automobile, Voyages, Santé, Famille & Domicile, et services de Conciergerie. **Description de la Mission:** En tant que consultant en data pour notre projet d'implémentation de dashboard avec Power BI et ETL Talend, vous serez responsable de comprendre les besoins métier, de traduire ces besoins en solutions de données efficaces, et de mettre en place une architecture de données robuste pour soutenir nos initiatives d'analyse. **Responsabilités:** 1. - Collaborer avec les parties prenantes métier pour comprendre leurs besoins en matière d'analyse et de reporting. - Identifier les indicateurs clés de performance (KPI) et les exigences de reporting pour chaque domaine fonctionnel. - Développer un modèle de données d'entreprise (Enterprise Data Model) qui capture les entités métier et leurs relations. - Concevoir une architecture de données comprenant un datawarehouse et des datamarts pour répondre aux besoins de reporting et d'analyse. 3. **Mise en Œuvre des Outils de Business Intelligence:** - Utiliser Power BI pour créer des dashboards interactifs et des rapports personnalisés répondant aux besoins métier. - Configurer et optimiser les ETL (Extract, Transform, Load) avec Talend pour l'ingestion des données depuis différentes sources. Gestion de Projet et Coordination: - Diriger et coordonner les activités liées à la mise en œuvre de la solution data. - Suivre les jalons du projet, gérer les risques et assurer le respect des délais et des budgets. - Expérience préalable dans la mise en œuvre de solutions BI avec Power BI et ETL avec Talend. - Solides compétences en modélisation de données et conception d'architectures de données. - Capacité à travailler de manière autonome et à gérer efficacement les priorités. - Excellentes compétences en communication et en collaboration avec les équipes métier. - Maîtrise des langages de requête SQL et des principes de gestion de bases de données. - Connaissance des bonnes pratiques en matière de gouvernance des données et de sécurité. Compétences / Qualités indispensables : Power BI, ETL talend, conception architecture de données (data warehouse & datamart), Développement d'un modèle de données (EDM), Maîtrise des langages de requête SQL et des principes de gestion de bases de données, gouvernance de données et sécurité, anglais Informations concernant le télétravail : 2 jours par semaine

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous