Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 204 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Big Data Tech Lead H/F

NAVIGACOM
Publiée le
Big Data
Cloud

12 mois
100-1 100 €
Yvelines, France

Missions En tant que Tech Lead Data, votre rôle principal sera de diriger avec succès le déploiement de l'architecture Big Data dans l'écosystème informatique cloud. Vous serez le principal interlocuteur entre l'équipe d'architecture et les développeurs et serez responsable de la bonne mise en œuvre des architectures définies dans les délais impartis. Vos tâches seront les suivantes : Concevoir, mettre en œuvre et déployer une architecture dans le cloud pour des projets Big Data : Travailler avec les architectes pour concevoir une architecture de pointe pour les projets Big Data dans un contexte de volumétrie élevée. Implémenter les architectures définies selon le planning et les exigences définis. Excellence technique : Satisfaire aux exigences du Big Data, capacité à travailler dans un contexte de volumétrie élevée. Remettre en question les décisions architecturales clés en fonction d'un contexte spécifique (topologie des données, volume, exigence de temps d'exécution, etc.). Optimiser le traitement et le stockage des données pour l'efficacité. Assurer un dépannage rapide des problèmes avec la surveillance appropriée . Gestion de projet : Superviser plusieurs projets en parallèle , en veillant à ce que les délais soient respectés, les normes maintenues et les objectifs atteints. Collaboration : Agir comme le lien principal entre l'architecture et la mise en œuvre dans le projet. Travailler en étroite collaboration avec d'autres responsables techniques et architectes . Échanger des connaissances et se synchroniser avec d'autres équipes. Gouvernance des données : Garantir le respect des politiques de gouvernance des données liées à l'industrie financière. Documentation : Superviser la création et la maintenance d'une documentation précise des développements, des procédures techniques et des configurations système pour améliorer les connaissances et faciliter les processus d'intégration pour l'équipe.

CDI
Freelance

Offre d'emploi
Ingénieur Big Data - DevOps (H/F)

VISIAN
Publiée le
Apache Kafka
Apache Spark
Docker

3 mois
40k-65k €
Marseille, Provence-Alpes-Côte d'Azur

Orienté Big Data et ayant des compétences dans les domaines listés ci-joint : Kafka, Spark, Hbase, Hive, Hadoop, Jenkins, Ansible, Github, Scala, Python, Linux, Kube, Linux. Objectifs et livrables L’expertise technique sur le Datalake (plateforme Big Data) consistera à : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake : gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de mises en production · Contribuer à l’amélioration continue des outils d’exploitation · Communication auprès des utilisateurs finaux Le consultant devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Freelance

Mission freelance
Ingénieur Big Data

CS Group Solutions
Publiée le
Apache Kafka
Apache Spark
Hadoop

6 mois
300-3k €
Tour-en-Bessin, Normandie

Nous recherchons un Ingénieur Big Data Compétences techniques: Hadoop Hive - Confirmé - Impératif Kubernetes - Junior - Important Description détaillée: Il s’agit de participer à la migration de données hébergées sur une plateforme obsolète Hortonworks vers la solution cible. La mission comprend 3 activités principales : - Gestion de la plateforme actuelle Hortonworks 2.6 (run) - Construction de la plateforme cible sur openshift (build) - Préparation à la migration depuis Hortonworks vers openshift (build) Un membre de l’équipe participera également à ces mêmes activités Savoir-faire : - Maitrise de Kafka et Spark - Connaissance de la plateforme Hortonworks et du concept de Big Data - La connaissance d’openshift est un plus - Automatisation (python, shell, SQL, ansible) - Processus ITIL

Freelance
CDI

Offre d'emploi
Développeur JAVA / BIG DATA

Digistrat consulting
Publiée le
Apache Spark
Hadoop
Java

3 ans
40k-60k €
Paris, France

Le client a lancé un programme de mise en place d'un nouveau dispositif de management de la liquidité permettant de satisfaire les nouvelles contraintes réglementaires et de répondre aux besoins internes de pilotage. Un des projets SI en support de ce programme a pour objectif la mise en place d'une base de synthèse transversale au Groupe, contenant les indicateurs de pilotage et assurant des restitutions sous diverses formes. Le Bénéficiaire souhaite mettre en œuvre les cadrages/développements/les tests unitaires/l'homologation technique sur des composants applicatifs dans les plannings et délais demandés. Les technologies utilisées seront Java J2EE/PL-SQL/Spark/Nifi/Oozie/Openshift. Ces actions doivent être effectuées dans le cadre des normes du projet. Le bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Conception et développement. Dans ce cadre la prestation consiste à contribuer à/au(x) : Maintien de l'environnement legacy et contribution au projet de migration de l'application vers le Big Data. - Mise en place d'une Plateforme (On premise + Cloude public) - Challenge des choix architecturaux - Audit du codes existants et solutions de factorisation du code - contribution à la validation des futurs développement - Développements, tests unitaires et homologation technique sur des composants applicatifs dans les plannings et délais demandés. Etre effectuée dans le cadre des normes du projet. - assistance sur les développements produits jusqu'à la mise en production. - Support de production

Freelance
CDI

Offre d'emploi
Expert Big Data & GCP

KLETA
Publiée le
Ansible
Apache Kafka
Apache Spark

2 ans
10k-88k €
Paris, France

Au sein d'une équipe d'expertise sur le volet Ops & Architecture vous intégrez la team en tant qu'architecte Cloud GCP & DevOps Big Data. Vos missions sur ce volet : Administration de la plateforme Hadoop présente Développer et continuer la migration vers GCP sur certaines applications Excellente maîtrise de Kubernetes attendues Connaissance complète de l'environnement Big Data et de la culture DevOps (Hadoop, Kafka, Elastic, Ansible, Kubernetes...) Endosser le rôle de référent technique sur le sujet Big Data

Freelance
CDI
CDD

Offre d'emploi
DÉVELOPPEUR JAVA / BIG DATA H/F

SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

3 ans
10k-50k €
Paris, France

La prestation consiste à contribuer à/au(x) : Maintien de l'environnement legacy et contribution au projet de migration de l'application vers le Big Data. - Mise en place de la One Plateforme (On premise + Cloude public) - Challenge des choix architecturaux - Audit du codes existants et solutions de factorisation du code - contribution à la validation des futurs développement - Développements, tests unitaires et homologation technique sur des composants applicatifs dans les plannings et délais demandés. La mission doit être effectuée dans le cadre des normes du projet. - Assistance sur les développements produits jusqu'à la mise en production. - Support de production

CDI
Freelance

Offre d'emploi
Développeur python / Big Data - GCP (H/F)

AGIL-IT
Publiée le
AWS Cloud
Dataiku
Google Cloud Platform

1 an
10k €
Issy-les-Moulineaux, Île-de-France

Missions : Le consultant interviendra au sein d’une équipe IT. La mission portera sur le suivi et la proposition de solution d'intégration / industrialisation des modèles algorithmiques développés par les équipes : Accompagnement des équipes Préconisations de bonnes pratiques de développement Python orienté ML Structuration de projet de type ML/DL Maitrise indispensable de l'outil Dataiku Bonnes connaissance DE GCP Intégration de containers Docker, Openshift Relais technique envers les interlocuteurs (francophone / anglophone) Participation aux projets suivant les sollicitations Gestion de l’environnement de DEV (Serveurs, BDD, etc.) Préconisations CI/CD

Freelance
CDI

Offre d'emploi
Tech Lead Développement Big Data

Digistrat consulting
Publiée le
Apache Spark
Github
Scala

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Tech Lead Big Data. Périmètre fonctionnel : banque d'investissement Les principales tâches de la missions sont les suivantes :  Développement, Clean code,  L'intégration continue,  La définition des solutions dans l'environnement applicatif (Cloud Platform / Spark Data processing)  Mise en place et suivi des développements en production du socle de fonctionnalités Processing / preparation de données  L'assistance à la conception technique du produit  Diverses assistances techniques (sujets techniques complexes sur le produit, etc...)  La revue de code  L'intégration cohérente du produit dans le système d'information en synchronisation avec l'architecture technique  L'analyse de l'impact de la conception du produit sur l'architecture technique du SI  L'architecture technique aux choix d'implémentation dans le SI  La maintenabilité technique du produit  La stratégie de développement et de tests selon critères pré-définis Autres :  Support applicatif via le monitoring et résolution associée  DevOps pour les parties IAAS et CD.  Environnement anglophone

Freelance
CDI

Offre d'emploi
PMO transition agile (H/F)

HR-TEAM
Publiée le
Conduite du changement
Gestion de projet
Méthode Agile

36 mois
45k-64k €
Villejuif, Île-de-France

PMO transition agile (H/F) Contexte : dans le cadre d'une organisation/accompagnement de l'agilité Missions principales (liste non exhaustive plus de détails par téléphone) : Comprendre comment fonctionne historiquement l'entreprise Assister aux échanges entre les différents interlocuteurs qui gèrent la transformation agile Challenger les équipes Organiser des réunions entre les intervenants pour confronter les idées Rédaction des différents livrables à la fois pour les différentes SQUADS mais également pour la direction Piloter tous les acteurs avec l’aide d’autres personnes pour que la transition suive la roadmap Assurer la bonne communication des changements Villejuif + télétravail assez flexible Préavis 1 mois accepté

Freelance

Mission freelance
Data Engineer AWS - Python - Big Data

Gentis Recruitment SAS
Publiée le

2 ans
Paris, France

L’objectif est de développer une plateforme appelée Supply data lake basée sur des technologies Big Data robustes et évolutives. Cette plateforme sera capable de traiter un volume substantiel de données dans les différents pays où Engie opère. Son objectif principal est de capturer divers indicateurs dans un référentiel centralisé, permettant l’accès à des vues standardisées et transversales de ces indicateurs. L’un des principaux objectifs de 2024 est de construire une première version d’un outil de P&L quotidien pour l’entité B2B France. En plus de ses responsabilités techniques, le développeur s’assurera de la conformité avec les directives du Groupe concernant l’utilisation et l’architecture du cadre interne. Il collaborera également avec les autres parties prenantes du projet afin de promouvoir ces directives et de proposer des fonctionnalités communes pour la plateforme. L’équipe est principalement située à Paris, mais des déplacements occasionnels à Lyon et à Bruxelles sont à prévoir. Le rôle du développeur senior dans ce projet consistera à concevoir et à mettre en œuvre les composants suivants de la plateforme : - L’acquisition des données - Traitement et normalisation des données. - Distribuer les données aux différentes parties prenantes. - Construire et améliorer le cadre commun, y compris la surveillance, CI/CD, les tests, la performance, la résilience, les pratiques de développement et la qualité du code... Les principales activités sont les suivantes : - Recueillir, comprendre, remettre en question et affiner les exigences et les opportunités commerciales. - Concevoir des solutions en suivant les lignes directrices de l’architecture. - Diriger les activités de développement et apporter une contribution en tant que senior/expert. Les activités de développement impliquent l’élaboration et la maintenance d’un code efficace, réutilisable et fiable qui respecte des normes élevées en matière de qualité des logiciels, de conception et de principes d’essai, tout en fournissant des solutions dans les délais et dans les limites du budget. - Soutenir l’amélioration continue des services et des applications en identifiant les goulets d’étranglement et les bogues et en proposant des solutions. - Fournir aux utilisateurs des services prêts pour la production, en s’efforçant d’atteindre le niveau de satisfaction le plus élevé. - Soutenir la phase de production, notamment en fournissant des outils de surveillance et d’alerte afin de minimiser l’impact de l’assistance pendant la phase de développement. - Rédiger et mettre à jour la documentation technique en anglais et la mettre à la disposition de l’équipe et des partenaires. - Assurer une communication efficace et opportune avec toutes les équipes concernées. XP min 5 ans python, api technologies big data AWS 3 ans XP min

Freelance
CDI
CDD

Offre d'emploi
AGILE MASTER H/F

SMARTPOINT
Publiée le
Agile Scrum

4 mois
10k-55k €
Paris, France

La prestation consiste à contribuer à/au(x) : La gestion de l’agilité des Squad Métiers :  Cérémonies agiles (Scrum ou Kanban) en étant axé sur la performance et la satisfaction du client,  L'assistance au Squad Leader dans la gestion du backlog de la Squad et faciliter une dynamique intra entité par rapport aux priorités,  contribuer a faciliter les phases d’exploration (Design Thinking, Lean Startup) des initiatives. Pérenniser l’agilité au sein de la Squad :  Conduite du changement (valeurs, principes, et pratiques de l’Agilité)  Soutenir la dynamique d’amélioration continue de la Squad sur ses activités et résolution de problèmes,  Contribution à la mesure de la maturité Agile de la Squad, à l'identification la mise en place des actions d’améliorations de ses pratiques agiles. L'intégration des activités des squads dans le Train, en relation avec le RTE : contribution à la prévision des impacts sur les réorganisations en cours ou en projet sur le Train et les squads et assistance à la transition. Les livrables attendus sont :  dans Jira permettant à la Squad de suivre ses activités agiles  et de suivi de l’exécution agile de la Squad (Velocity, burndown chart, Cumulative Flow Diagram, ...).  des activités Agile de la Squad, hébergé dans Jira  Sprint Review  en sortie de cette cérémonie  (PI Planning, PI Sync, PI Review) demandés par le RTE  agile de la Squad et de sa progression durant la mission  du dispositif des squads.

CDI

Offre d'emploi
COACH AGILE (H/F) - Niort

NORGAY
Publiée le
Agile Scrum
Méthode Agile

40k-46k €
Niort, Nouvelle-Aquitaine

Afin d'accompagner nos clients dans leurs projets à forte impact, nous recrutons un.e Coach Agile / Agile Master à Niort ! Les missions qui vous attendent : - Identifier les obstacles, blocages qui peuvent détourner l'équipe des objectifs - Animer et accompagner l'équipe dans la cherche de solutions - Alerter en cas de détection de risque pour le delivery - Animer les rétrospectives et brainstormings - Accompagner les PO dans la déclinaison opérationnelle de l'agilité - Administrer l'outil de suivi (Jira, Planner...) - Suivre et communiquer sur les KPIs relatif aux pratiques Agiles et à la performance de l'équipe

Freelance
CDI

Offre d'emploi
Consultant(e) AMOA Big Data / Data - Bordeaux (33)

Accelite
Publiée le
Agile Scrum
Alteryx
AMOA

13 mois
40k-50k €
Bordeaux, Nouvelle-Aquitaine

En tant que Consultant(e) AMOA Big Data / Data , vous accompagnez la modélisation et à la mise en œuvre des solutions décisionnelles (reporting stratégique, opérationnel, etc.) la mise en œuvre des usages concernant les données des services Solidarités et Droit à l’information. Les solutions à mettre en œuvre le seront sous une architecture technique Hadoop/Hive ; les outils de manipulation des données : Tableau et Alteryx. De plus, vous participez à l’enrichissement des dictionnaires de données sur le périmètre concerné ainsi qu’à la modélisation des datamarts décisionnels répondant aux cas d’usages du projet. Les activités seront menées en méthode dite agile . La durée des sprints est de trois semaines. Le nombre de sprints sera de 9. À ce titre, vous aurez pour rôle : -Accompagnement et interface entre Métier et MOE sur les solutions d’architecture data mises en place -Animer les réunions avec les utilisateurs et l’équipe de développement (une réunion par semaine, de 5 à 10 participants par réunion) -Recueillir et restituer les indicateurs -Tâches attendues pendant un sprint : Analyser les user-stories prises en compte dans les sprints et animer les ateliers métiers associés ; Modélisation fonctionnelle des objets pivots et des datamarts ; Préparer et conduire les recettes -Réalisation d’un mode opératoire, façon Tutoriel, pour que les métiers puissent construire des rapports en autonomie. Cela pourra être sous forme de document de type Powerpoint avec un maximum de 30 slides -Réalisation/automatisation de rapports et d’indicateurs sur demande des métiers -Accompagnement des métiers dans l’utilisation de la solution S.I mise en œuvre -Réalisation de documents sur le fonctionnement de l’outil à destination de la MOA. Les documents seront sous format de type Word. Ils devront être exhaustifs en termes de périmètre de fonctionnalités mise en œuvre.

Freelance

Mission freelance
Consultant agile - Méthodologie de fabrication (H/F)

LeHibou
Publiée le
Confluence
Méthode Agile

1 an
580 €
Villejuif, Île-de-France

Notre client dans le secteur Banque et finance recherche un Consultant agile - Méthodologie de fabrication H/F Ses principales missions seront : - Proposer, entendre, challenger les idées des autres intervenants autour de cette thématique, synthétiser les éléments issus de réunion de travail, de confrontation terrain, .... Il ne devra pas arriver avec des solutions “sur étagère”, notre transformation n’étant pas adossée à un modèle sur étagère. Il est important de rester pragmatique, et de définir la méthodologie qui correspond à notre histoire et notre contexte. Pour autant, une expérience en agilité à ce niveau est nécessaire pour être capable d’en prendre les élements pertinents pour notre organisation. - Rédiger un certains nombres de livrables tels que : ➔ MAJ majeures de l’intranet actuel (pages confluence) présentant la méthodologie de fabrication (actuellement très orientée cycle en V), ➔Support de synthèse, de présentation à différents collectifs de différents niveaux (très opérationnel type squad, ou plus stratégiques type CODIR) Sur ce volet, la rédaction de supports visuels percutants est un point également très important. -Piloter et projeter ce chantier dans une road map (définir la cible, identifier la trajectoire et les jalons clés, les piloter). -Participer aux choix de parcours de formation en lien avec cette thématique. Vous l’avez compris, nous cherchons quelqu’un disposant d’une expérience solide en agilité, sachant rédiger des supports clairs et percutants, étant très pragmatique, force de proposition, autonome et à l’écoute. Le consultant devra être pro-actif sur son sujet, savoir avancer de manière autonome tout en rendant régulièrement compte de l’avancement de son chantier. Le consultant, typé « Coach Agile » n’aura pas l’animation d’équipe en termes de coaching. Il pourra cependant s’appuyer sur les REX de certains collectifs pour élaborer la méthode de fabrication de la DSI et au-delà (nous souhaitons que soit embarqué le volet PO/métier, et le volet Production informatique/Ops).

Freelance
CDI

Offre d'emploi
Développeur Talend (Data Intégration Big Data) Infomart Genesys

Digistrat consulting
Publiée le
Microstrategy
Talend

3 ans
40k-60k €
Paris, France

🏭 Secteurs stratégiques : Banque de détail 💡 Contexte /Objectifs : Un projet stratégique est en construction visant notamment à proposer de nouveaux outils de mise en relation transverse pour les différentes entités en relation avec les bénéficiaires de la banque de détail. À ce titre, notre client souhaite bénéficier de l'expertise du prestataire en termes d'Assistance maîtrise d'ouvrage SI Dans ce cadre, la prestation consiste à contribuer à la conception et à la mise en place des ETL spécifiques sous SQL Server et des ETL Talend qui interviennent dans la collecte et la transformation des données avant restitution et qui s'appuient sur la base Infomart de l’application Genesys. Livrables attendus Accompagnement des métiers dans la définition des tableaux de bord en se basant sur la connaissance des progiciels du périmètre Pilotage de la mise en oeuvre Accompagnement des équipes de réalisation dans la spécification et les tests des livraisons.

Freelance

Mission freelance
Data Agile Delivery Manager H/F

LeHibou
Publiée le
BigQuery
DAX

8 mois
630 €
Levallois-Perret, Île-de-France

Notre client dans le secteur Luxe recherche un Data Agile Delivery Manager H/F Descriptif de la mission: Le client est un acteur majeur du secteur de la beauté et du luxe. Dans le cadre de la poursuite de la construction de son offre de produits Data Analytics, l'équipe Data Delivery Commerce de l'IT Europe est à la recherche d'une expertise Agile Delivery Manager (ADM). Les produits Data Analytics sont développés au sein d'une stack technologique composée de Google Cloud Platform, BigQuery en particulier, et de Microsoft Power BI pour la visualisation. Faire évoluer l'un des produits Data Analytics Commerce et assurer le déploiement dans les différents pays de la zone Europe. Le métier Commerce est au cœur des enjeux du Groupe, chargé de l'identification des leviers de valeur et de la transformation commerciale de l'organisation. Les produits Commerce comprennent des utilisateurs tels que des General Managers, Sales Directors, Key Account Managers, Sales Administrators ou encore des Financial Controllers. Tâches principales : - Gérer la création de nouveaux dashboards et datasets - Collecter et évaluer des besoins en bonne coordination avec les interlocuteurs Business et IT - Identifier les points de blocage et agir comme un facilitateur pour les équipes - Définir une roadmap, prioriser un backlog, rédiger et/ou accompagner à la rédaction de user stories, animer les cérémonies Agile - Assurer la montée en compétences de Product Owners. Le consultant devra nécessairement disposer des compétences suivantes : - Maitriser parfaitement les principes du framework Scrum et être en mesure d'assurer l'adoption de l'agilité par l'ensemble des parties prenantes - Savoir coordonner une squad composée d'un Product Owner, de Data Engineers GCP et de développeurs Power BI - Savoir susciter un engagement durable et positif autour de lui afin d'assurer une livraison à temps des features définis et permettre une amélioration constante de la vélocité - Être en mesure de gérer en autonomie les attentes de demandeurs Business exigeants et de tout niveau hiérarchique - Disposer d'excellentes capacités de communication et présentation orales comme écrites - Un très bon niveau d'anglais est requis (langue de travail quotidienne). De par la nature des produits développés et de la stack technologique utilisée, une expertise de Google BiqQuery et du SQL est préférable. Optionnel : - Familiarité avec les données du secteur des biens de consommation (ex. sell-in, sell-out) - Maitrise de Power BI et de son langage (DAX) - Familiarité avec ServiceNow.

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous