Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 567 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
DATA ENGINEER SPARK / SCALA

UCASE CONSULTING
Publiée le
Apache Spark
Scala

3 ans
100-600 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un data engineer spark / scala. Mission : Livrables n 1 : Sprint n 1 + Lot 1 : développement des US et tests associés ; + Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d’exploitation ; + Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; + Lot 4 : Mise en place du monitoring ; LE PROFIL RECHERCHE Compétences métiers & outils : Les compétences technologiques attendues sont : + Indispensables : maîtrise de l’API Scala Spark (batch principalement), maîtrise des techniques d’optimisation Spark, expérience dans le traitement de volumétries importantes / complexes, développement et bonnes pratiques Scala, build Maven, travail en environnement cloud (idéalement Azure) + Appréciées : écosystème Databricks, développement d’API HTTP, expérience sur la stack ELK Compétences transverses + Aisance relationnelle + Esprit d’équipe et d’adaptabilité + Esprit de synthèse + Rigueur et esprit d’analyse + Autonomie + Force de proposition + Vous avez le sens des priorités et la capacité à gérer les délais + Vous aimez le travail en mode multi-projets + Appétence client, besoin métier et compréhension du fonctionnel + Mentoring et partage de connaissances

Freelance
CDI

Offre d'emploi
Data Engineering - TALEND / SPARK / SCALA / MSBI

Digistrat consulting
Publiée le
Apache Spark
Hadoop
Microsoft Power BI

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : L'entité a pour charge la maintenance, le support et l'évolution de l'outil concernant le pilotage financier de la banque, des directions centrales et de la facturation interne du groupe. Les outils sont basés sur les technologies Big Data pour le stockage, Talend et Spark/Scala pour les traitements, la suite MSBI SQL Server et cube SSAS pour l'analyse mutlidimensionnelle et enfin du Power BI pour la restitution. Le Bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - Support de l'application (notamment lors des clôtures mensuelles) - La maintenance évolutive - La conception et l'implémentation de nouvelles fonctionnalités - La refonte technique - La migration de Talend vers Spark/scala Environnement anglophone 2 - Livrables attendus Les livrables attendus sont : - Optimisation des performances - Le support de l'application et la documentation - La livraison des evolutions - La livraison des nouvelles fonctions demandées dans le cadre des projets.

CDI

Offre d'emploi
Devops - Terraform / Python / Network GCP & DNS

DAVRICOURT
Publiée le

35k-40k €
Lille, Hauts-de-France

Dans le cadre d'une assistance technique, chez l'un de nos clients basé à Lille nous recherchons: Un Devops avec maitrise technique en Terraform, Python, GCP et DNS. Vos missions sont les suivantes: - Contribution au développement de nouvelles fonctionnalités IAC en lien avec nos solutions pour les utilisateurs. - Utilisation de JIRA pour le suivi et la gestion des livrables. - Code Python de qualité, avec une attention particulière portée à l'orienté objet. - Intégration de tests (notamment mocks) pour assurer la robustesse du code. - Utilisation de Terraform pour la gestion de l'infrastructure. - Utilisation efficace des gestionnaires de version (GitHub, GitLab) pour le contrôle de version et la collaboration. - Mise en place de pipelines CI/CD pour automatiser les déploiements. - Connaissances de base en DNS public pour la configuration et la gestion des noms de domaine. - Familiarité avec les services réseau sur Google Cloud Platform (GCP). Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.

Freelance

Mission freelance
Tech Lead Big Data – Expert Java Spark

Cogigroup
Publiée le
Apache Spark
Java

3 mois
100-440 €
Paris, France

Je recherche un Tech Lead Big Data – Expert Java - Spark : • Devenir le Pilier technique du socle Big Data en Java Spark pour aider les utilisateurs de différentes 6 squads à l’utiliser, répondre aux tickets, analyser les bugs et savoir coder les corrections et livrer (CI/CD Jenkins Maven) • Rôle orienté RUN mais quelques évolutions peuvent toujours intervenir, avec donc la capacité de comprendre le besoin fonctionnel et développer l’évolution • Gérer les clusters Hadoop MapR on-premise avec un accent sur l'optimisation des performances et le chargement de données en streaming (Kafka/MaprES) et en batch.

CDI

Offre d'emploi
Incident/Change/Problem Manager ITIL (ICP)

CONSORT GROUP
Publiée le

45k-65k €
Paris, France

Mission En tant que Consultant ICP, vous êtes polyvalent sur la gestion des Incidents, Changements et Problèmes. Principales activités : - Etre l'interface privilégiée auprès de son Client - Réaliser un suivi hebdomadaire au travers des Comités de Suivi Opérationnel - Réaliser le bilan des incidents - Rédiger des Post Incident Reports - Réaliser le suivi des actions correctives et préventives - Traiter les réclamations - Leader les Task Forces - Réaliser le suivi des changements et communiquer le plan des changements futurs - Réaliser un bilan des indicateurs de suivi et de qualité de la production informatique - Réaliser un suivi mensuel au travers des Comités de Pilotage - Analyser et être force de proposition pour des actions d'amélioration de la Production - Etre à l'écoute des équipes techniquesAvoir une vision transverse pour déceler les problèmes et envisager les actions préventives ou correctives

Freelance

Mission freelance
développeur pyspark spark - 550€ max

Innov and Co
Publiée le
Apache Spark
PySpark
Python

12 mois
100-550 €
Boulogne-Billancourt, Île-de-France

Dans le cadre de la mise en place du projet Data Finance nous recherchons un data engineer confirmé. - Contexte : le projet Data Finance à pour objectif de mettre a disposition des données consolidé de différente source (base de données relationnelle, SAP , base de données Iaas) dans un modèle de donnée modélisé en Etoile a des fins d'analyse financier. - Environnement technique : Azure DataFactory, Databricks, Pyspark, SQL , Azure devops, Blob Storage. - Mission du candidat : Développer des pipeline d'ingestion des données dans le datalake avec datafctory Développer des flux de transformation de données via Python/spark/ Pyspark Databricks. Mettre en place des pipeline CICD azure devops Participé au re factoring du code existant Être garant de la qualité du code et le bon respect des norme de développement Mis en place des test unitaire. Mise en place du monitoring et de la supervision de l'application datafinance .

Freelance

Mission freelance
Consultant Devops AWS / Terraform / Python

VISIAN
Publiée le
AWS Cloud
Docker
FastAPI

6 mois
100-700 €
Paris, France

Les ingénieurs déploiement sont responsables de la qualité du service livré à nos clients. Ils aident les équipes de développement de produits à préparer des progiciels prêts à être déployés sur le cloud et sur site. Ils conçoivent, réalisent et déploient une solution d'automatisation du déploiement et s’assurent que chaque instance de nos produits est régulièrement mise à jour et pleinement opérationnelle. Ils s’approprient les contraintes du client sur son système d'information et proposent des solutions techniques sur un large périmètre (virtualisation, stockage, réseau, firewall, pipeline de données) Description des activités possibles : • S’adapter aux méthodes de travail et aux rituels des équipes, • Organisation du travail et animation du backlog de l’équipe, • Accompagnement des profils juniors de l’équipe, • Coordination avec les équipes de développement applicatif pour les évolutions de la plateforme, • Déploiement de la solution sur les environnements de production, préproduction et recette • Interagir avec un framework Python spécifique à la plateforme, • Comprendre à la fois, les aspects techniques et métiers de la plateforme, • Investiguer les incidents à la frontière entre applicatif et infrastructure, • Interagir avec les équipes applicatives et infrastructure pour résoudre les incidents, • Contribuer avec son expertise au développement technique de la plateforme, • Être force de proposition et s’engager sur le suivi des chantiers techniques proposés, • Focaliser sur la qualité du code par l'utilisation et la promotion des bonnes pratiques en développement de logiciel, • Assurer l’intégration de tests et la documentation du code, • Contribuer à l’Infrastructure As Code pour améliorer le déploiement de la plateforme, • Faire un suivi des avancées des travaux dans les outils de gestion de projet

Freelance

Mission freelance
Expert monitoring (Zabbix, OpenTelemetry, Ansible, Terraform) - Sénior (H/F)

Beyond Skills-IT
Publiée le
Ansible
Monitoring
Terraform

3 ans
550-750 €
Paris, France

Notre client doit recourir à une prestation externe pour renforcer l'équipe Monitoring Au sein du pôle Monitoring la prestation a pour objet l’administration des différents outils du périmètre de l’équipe et la maintenance en condition opérationnelle de ceux-ci ( zabbix,centreon, prometheus, grafana , etc…) ‍ Les missions impliqueront notamment un peu de développement principalement en Python /PHP / Shell et une montée en compétence dans la compréhension globale d’un SI. ‍ La prestation implique également la refonte du système de monitoring, afin de répondre aux enjeux Cloud / OnPremise et multi-tenants , en prenant en compte l’hétérogénéité des solutions infrastructures et applicatives déployées ( Kubernetes & Legacy ) tout en ayant un souci constant d’automatisation et de normalisation. ‍ Enfin la prestation nécessite de mener la conduite du changement en formant les équipes aux nouvelles solutions mises en place et assurer la disparition progressive des anciennessolutions Support des utilisateurs Compréhension du SI (asset infrastructures & applicatifs), Déploiement des nouvelles solutions de monitoring (Grafana / Prometheus / OnCall /Alert Manager / Zabbix), RFP pour la mise en place d’un hyperviseur global permettant d’avoir une vision360°, Étude et participation aux ateliers de mise en place d’OpenTelemetry, Upgrade technique des plateformes, Maintien en condition opérationnelle des applications existantes et les middlewares, Capacité à travailler seul ou en équipe. ‍

CDD
Freelance
CDI

Offre d'emploi
Data Engineer TALEND / SPARK / SCALA / MSBI H/F

SMARTPOINT
Publiée le
Apache Spark
Scala
Talend

3 ans
55k €
Paris, France

La prestation consiste à contribuer à/au(x) : - Support de l'application (notamment lors des clôtures mensuelles) - La maintenance évolutive - La conception et l'implémentation de nouvelles fonctionnalités - La refonte technique - La migration de Talend vers Spark/scala Environnement anglophone Les livrables attendus sont : - Optimisation des performances - Le support de l'application et la documentation - La livraison des évolutions - La livraison des nouvelles fonctions demandées dans le cadre des projets

CDI

Offre d'emploi
Ingénieur Python Terraform

Ipanema Technology
Publiée le
Python
Terraform

45k-65k €
Île-de-France, France

Description du Poste : Nous recherchons activement un Ingénieur Python/Terraform pour rejoindre notre équipe dynamique. Le candidat retenu sera responsable de la conception, du développement et de la maintenance de solutions en utilisant Python et Terraform. Il ou elle collaborera étroitement avec les équipes de développement pour mettre en place des microservices efficaces et évolutifs. De plus, le candidat sera chargé de participer à la conception et à l'implémentation d'architectures cloud basées sur les technologies IBM. L'automatisation des processus de déploiement, de gestion et de surveillance des infrastructures et des applications fera également partie intégrante de ses responsabilités.

Freelance

Mission freelance
Expert Cloud - Python/Airflow/Terraform/Kubernetes H/F

LeHibou
Publiée le
DevOps
Python

3 ans
600 €
Montreuil, Île-de-France

Description de la mission: Le client est un acteur majeur du secteur bancaire. Dans le cadre de sa gestion de son offre d'infrastructure, l'équipe Cloud en charge de l'orchestrateur du Cloud Privé, recherche un développeur expert PYTHON. A ce titre, il participera à la conception et l'écriture de l'orchestrateur afin de permettre le provisioning dans différents environnements onPremises, Clouds. Il devra aussi s'impliquer, en autonomie, sur le RUN (DEVOPS) et sur les développements pilotés en mode AGILE SCRUM Compétences techniques / "Savoir-faire" : Orchestration, JS / SQL / Java / Connaissance de la virtualisation (VMWare) / Connaissance de l'univers Cloud / Connaissance OS (Linux / Windows). -gitlab CI/CD, python, TERRAFORM, ORCHESTRATION, AIRFLOW -gitlab CI/CD, RHL, Windows, Terraform, Dev (sens general), Virtualisation VMWare, Design fonctionnel, SQL, -Kubernetes + Développement sur KUBERNETES, Terraform, Python Golang Docker Connaissance de développement Cloud provider ( ibmcloud très apprécié ), agile / java spring, Orchestration Compétences / Qualités indispensables : Airflow, Pyhton, Terraform, Kubernetes Compétences / Qualités qui seraient un + : Expérience bancaire Informations concernant le télétravail : 2 à 3 jours semaine

Freelance
CDI

Offre d'emploi
Data Engineer Spark Senior

KLETA
Publiée le
Apache Spark
Spark Streaming

3 ans
10k-73k €
Paris, France

Analyse des Exigences : Collaborer avec les équipes métier pour comprendre les besoins en matière d'analyse de données et de traitement. Conception de Solutions : Concevoir des architectures de données et des solutions de traitement distribué en utilisant Apache Spark. Proposer des modèles de données adaptés aux cas d'utilisation spécifiques. Développement de Pipelines de Données : Développer des pipelines de données robustes et évolutifs en utilisant Apache Spark pour l'ingestion, le nettoyage, la transformation et la préparation des données. Utiliser Spark Streaming pour le traitement en temps réel des flux de données. Optimisation des Performances : Optimiser les performances des jobs Spark en ajustant les configurations, en utilisant des techniques de partitionnement et de cache, et en améliorant l'efficacité des transformations. Gestion des Versions : Utiliser des outils de contrôle de version pour gérer le code source et les artefacts des pipelines Spark. Tests et Validation : Élaborer des stratégies de test pour les pipelines Spark et mettre en œuvre des tests unitaires, d'intégration et de régression. Valider la qualité des données à différentes étapes du pipeline. Déploiement et Monitoring : Déployer les pipelines Spark sur des clusters de production et surveiller les performances en temps réel. Mettre en place des alertes pour détecter les problèmes de performance ou de disponibilité. Sécurité : Implémenter des mesures de sécurité pour protéger les données sensibles tout au long du pipeline. Utiliser des technologies telles que Kerberos, Ranger, ou des outils de chiffrement pour assurer la sécurité des données. Documentation : Documenter les pipelines de données, les flux de travail, les configurations et les bonnes pratiques. Créer des guides d'utilisation pour les autres membres de l'équipe et les utilisateurs finaux.

Freelance

Mission freelance
POT7816-Un consultant Spark/Kafka sur Tours

Almatek
Publiée le
Python

3 mois
100-350 €
Tours, Centre-Val de Loire

Almatek recherche pour l'un de ses clients, Un consultant Spark/Kafka sur Tours Il s’agit de participer à la migration de données hébergées sur une plateforme obsolète Hortonworks vers la solution cible. La mission comprend 3 activités principales : - Gestion de la plateforme actuelle Hortonworks 2.6 (run) - Construction de la plateforme cible sur openshift (build) - Préparation à la migration depuis Hortonworks vers openshift (build) Un membre de l’équipe participera également à ces mêmes activités Savoir-faire : - Maitrise de Kafka et Spark ,Hadoop Hive ,Kubernetes - Connaissance de la plateforme Hortonworks et du concept de Big Data - La connaissance d’openshift est un plus - Automatisation (python, shell, SQL, ansible) - Processus ITIL

Freelance

Mission freelance
DevOps (Dev) Terraform / Python / Conteneurisation

Cherry Pick
Publiée le
Python
Terraform

12 mois
500-550 €
Paris, France

Vos Principales Missions 1) RUN CNAPP •Gérer et assurer le bon fonctionnement de notre plateforme CNAPP Prisma Cloud. •Collaborer avec différentes équipes sur des sujets de RUN lié au CNAPP Prisma Cloud, troubleshooting d’installation d’agent, formation aux équipes •Développer des scripts en Python pour automatiser des tâches opérationnelles et intégrer des outils spécifiques. •Déployer et maintenir l'infrastructure sur les plateformes AWS/GCP à l'aide de Terraform. 2) Refonte et amélioration du développement de notre CMDB sécurité interne •Reprise du code existant en python, optimisation et développement de nouvelles fonctionnalités •Déployer et maintenir l'infrastructure sur les plateformes AWS/GCP à l'aide de Terraform •Mise en place de la pipeline CI/CD avec Github •Documentation à écrire

Freelance

Mission freelance
TECHNICAL LEADER - DÉVELOPPEMENT BIG DATA : SPARK, SCALA

I-lead Consulting
Publiée le
Apache Spark
Scala

6 mois
500-710 €
Paris, France

L'entité IT est composée de 3 Feature Team, 2 en charge du backend / processing de données, la dernière en charge de toutes les interfaces (UI) et couches de traitement API. Dans le cadre de la modernisation de son backend, le socle du processing de données est ré-écrit sur une technologie BigData sur Cloud Interne, ce qui permet d'élargir l'offre de services proposée aux utilisateurs. Le Bénéficiaire souhaite mettre en œuvre la refonte de son Back-end autour des technologies BigData en intégrant les principes Digitaux (Architectures SOA, Web developpement In House, Frameworks internes).Le Bénéficiaire souhaite mettre en œuvre les évolutions de son socle technique. Dans ce cadre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : · Développement, Clean code, · L'intégration continue, · La définition des solutions dans l'environnement applicatif (Cloud Platform / Spark Data processing) · Mise en place et suivi des développements en production du socle de fonctionnalités Processing / preparation de données · L'assistance à la conception technique du produit · Diverses assistances techniques (sujets techniques complexes sur le produit, etc...) · La revue de code · L'intégration cohérente du produit dans le système d'information en synchronisation avec l'architecture technique · L'analyse de l'impact de la conception du produit sur l'architecture technique du SI · L'architure technique aux choix d'implémentation dans le SI · La maintenabilité technique du produit · La stratégie de développement et de tests selon critères pré-définis Autres : · Support applicatif via le monitoring et résolution associée · DevOps pour les parties IAAS et CD. · Environnement anglophone

Freelance
CDI

Offre d'emploi
Gestionnaire de Processus ITIL - Incident Manager

VISIAN
Publiée le
ITIL
Microsoft Excel
Microsoft Power BI

18 mois
40k-50k €
Vaison-la-Romaine, Provence-Alpes-Côte d'Azur

Nous recherchons un Gestionnaire de Processus ITIL - Problème/Changement/Incident Senior pour rejoindre notre équipe de production informatique. Le candidat retenu sera responsable de la coordination des activités du processus, de l'assurance de l'application des activités du processus, de la surveillance et de l'amélioration de la performance du processus, ainsi que de la gestion opérationnelle des problèmes pour notre cluster. Responsabilités : Coordonner toutes les activités du processus S’assurer que les activités du processus sont appliquées Surveiller et améliorer si nécessaire la performance du processus au sein de son périmètre via les indicateurs de performance Collaborer avec le propriétaire du processus et les gestionnaires des autres socles / clusters afin de s’assurer du respect de l’application du processus Identifier et centraliser, pour son entité, les besoins d’amélioration continue du processus et son implémentation dans l’outil ITSM Rapporter cette performance dans les comités et ateliers sur le processus Statuer collégialement, au sein du comité de pilotage, sur les besoins fonctionnels et sur les évolutions de procédures associés au processus Communiquer les décisions prises en comité de pilotage au sein de son périmètre Harmonisation du processus et Relais de l’amélioration Continue en transverse Former au processus Piloter et assurer la coordination des plans d'actions issus des problèmes au sein du Cluster pour garantir leur fermeture dans les délais, en collaboration étroite avec les porteurs d'actions des socles et clusters Assurer la mise en visibilité des réalisations sur les problèmes à travers des reporting digitalisés Animer les comités problèmes avec nos entités clientes et en interne du cluster. Etre force de proposition auprès du propriétaire du processus Gestion de problèmes transverse pour contribuer à l'amélioration continue du processus et de l'outil ITSM S'appuyer sur des data analyses pour alimenter la gestion de problèmes des récurrences d'incidents et s'inscrire dans une démarche de qualité proactive Support aux autres processus : backup/renfort ponctuel

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous