Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 344 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Data Engineering - TALEND / SPARK / SCALA / MSBI

Digistrat consulting
Publiée le
Apache Spark
Hadoop
Microsoft Power BI

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : L'entité a pour charge la maintenance, le support et l'évolution de l'outil concernant le pilotage financier de la banque, des directions centrales et de la facturation interne du groupe. Les outils sont basés sur les technologies Big Data pour le stockage, Talend et Spark/Scala pour les traitements, la suite MSBI SQL Server et cube SSAS pour l'analyse mutlidimensionnelle et enfin du Power BI pour la restitution. Le Bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - Support de l'application (notamment lors des clôtures mensuelles) - La maintenance évolutive - La conception et l'implémentation de nouvelles fonctionnalités - La refonte technique - La migration de Talend vers Spark/scala Environnement anglophone 2 - Livrables attendus Les livrables attendus sont : - Optimisation des performances - Le support de l'application et la documentation - La livraison des evolutions - La livraison des nouvelles fonctions demandées dans le cadre des projets.

Freelance

Mission freelance
Tech lead et devops (H/F)

OCTOGONE
Publiée le
Docker
Gitlab
Kubernetes

6 mois
500-750 €
Valence, Auvergne-Rhône-Alpes

En tant que tech lead cloud et devops, ou architecte cloud et devops, vous aurez pour mission d'effectuer les tâches suivantes : - travail sur l'analyse de l’existant - sur la production de l’architecture technique et sécurité cible - sur l'Identification des écarts avec les solutions groupe déjà existantes - sur la production du modèle opérationnel cible - sur la production du modèle de coût cible - sur le suivi des livraisons - sur l'accompagnement des équipes opérationnelles IS/IT dans la livraison des environnements

Freelance

Mission freelance
Tech lead cloud et devops (H/F)

OCTOGONE
Publiée le
Bash
Gitlab
Kubernetes

6 mois
500-750 €
Osny, Île-de-France

En tant que tech lead cloud et devops, ou architecte cloud et devops, vous aurez à effectuer les tâches suivantes : - l'analyse de l’existant - la production de l’architecture technique et sécurité cible - l'Identification des écarts avec les solutions groupe déjà existantes - la production du modèle opérationnel cible - la production du modèle de coût cible - le suivi des livraisons - l'accompagnement des équipes opérationnelles IS/IT dans la livraison des environnements

CDI
Freelance

Offre d'emploi
Ingénieur système Linux

HR-TEAM
Publiée le
Ansible
CentOS
Docker

36 mois
41k-50k €
Lille, Hauts-de-France

Projet Vous intervenez sur un projet à très forte valeur ajoutée dans le secteur de l’industrie . Poste et missions · Expertise sur le BUILD des solutions OS à mettre en place. · Accompagner sur les demandes d’expertise en BUILD ou en RUN (gestion de problème). · Industrialisation de l’instanciation des masters via les outils. · Documenter l’instanciation des Masters. Environnement technique : · Linux Ubuntu · Linux CentOS / Alma · Linux Redhat · Terraform / jenkins / Ansible (dev) · Docker - Kubernetes Méthodologie de travail : Agile Télétravail : jusqu’à 2 jours/semaine Vous apportez votre expertise et vos capacités d’analyse à la réalisation de plusieurs projets pour l’évolution de l’entreprise.

Freelance
CDI

Offre d'emploi
Data Engineer Devops

Atlanse
Publiée le
DevOps
Git
Gitlab

3 ans
10k-70k €
Issy-les-Moulineaux, Île-de-France

Vous interviendrez au sein de l’équipe Analytics et contribuerez au développement de la plateforme DataHub, dans un environnement international. Missions Analyser les besoins auprès des utilisateurs de Datahub (métiers, équipes IT, process...), formalisation des échanges, des process et développements à effectuer Activités DevOps pour les applications Datahub : Effectuer les déploiements et mises à jour d’applications sur clusters Kubernetes Assurer la customisation et les paramétrages avancés d’applications open-sources Participer à l’amélioration continue de la stabilité des applications Réaliser le monitoring des applications Veiller à la réalisation et au suivi des sujets d’architecture IT avec des spécialistes architecture IT (réseau, cluster Kuberneters, bases de données relationnelles, containers, usage des ressources de calculs) Réaliser les développements : Automatisation de tâches planifiées (rafraichissements de données, calculs de KPI, opérations techniques…) avec Python Traitement de données Parquet (modifications des données et schémas) avec pyArrow, pySpark ou polars Requêtes Adhoc, qualité de données, modélisation et réalisation de développements SQL complexes (Ex : datasets pour rapports BI), performance tuning

CDI

Offre d'emploi
Lead Développer (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Angular
Docker
Java

45k-55k €
Lille, Hauts-de-France

🔍 Missions pour le Lead Developer : Pilotage technique des projets, de la conception à la mise en production, en assurant la qualité, la performance et la sécurité des solutions développées. Management d'une équipe de développeurs , en guidant leur montée en compétences et en promouvant les meilleures pratiques de développement. Collaboration étroite avec les équipes produit, design et QA pour assurer l'alignement et l'excellence dans la livraison des projets. Veille technologique continue pour intégrer de nouvelles technologies et méthodologies qui pourraient bénéficier aux projets et à l'équipe. Développement et maintien d'une architecture scalable et performante, en utilisant Docker et Kubernetes pour l'orchestration des conteneurs

Freelance

Mission freelance
Ingénieur Plateforme Artifactory (Gestion des Binaires)

TDS
Publiée le
Docker
Kubernetes
Xray

6 mois
300-550 €
Montreuil, Île-de-France

Missions Principales: Assurer une expertise approfondie des produits JFrog Artifactory et XRay ainsi que des pratiques associées. Gérer l'administration et la configuration/consommation d'Artifactory, y compris les mises à niveau, les changements d'architecture vers Kubernetes, et autres évolutions. Collaborer étroitement avec les équipes de développement et d'infrastructure pour garantir une intégration fluide de la plateforme Artifactory dans l'écosystème DevSecOps. Détenir une expertise avancée sur les environnements Linux, Docker et Openshift pour assurer une gestion optimale de la plateforme Artifactory. Participer à la configuration et à l'optimisation des environnements Docker et Openshift pour une intégration efficace avec Artifactory. Rédiger des documents détaillés, notamment des guides How-To et des manuels de maintenance fonctionnelle et technique pour faciliter l'utilisation et la maintenance d'Artifactory. Maintenir une documentation à jour sur les configurations, les procédures d'administration et les bonnes pratiques liées à Artifactory. Fournir un support technique et opérationnel lors du déploiement de la solution Artifactory auprès des clients internes. Collaborer avec les équipes de déploiement et d'assurance qualité pour garantir le déploiement réussi de la solution et la résolution efficace des problèmes éventuels.

CDI

Offre d'emploi
Ingénieur DevOps (H/F)

Synchrone recrutement
Publiée le
Ansible
CI/CD
DevOps

10k-70k €
Clermont-Ferrand, Auvergne-Rhône-Alpes

Dans le cadre du développement de notre activité, nous recrutons un(e) Ingénieur(e) DevOps (H/F) . Votre Rôle , vos Responsabilités Au sein d’une équipe dédiée, vous contribuez à la mise en place et l’optimisation de la chaîne d’automatisation au sein d’un projet. A ce titre, votre fonction consistera à : Intervenir pour toutes les étapes du projet, de la définition des besoins à la mise en production, Garantir le bon fonctionnement et tenir compte des retours des utilisateurs pour réaliser les améliorations et évolutions techniques nécessaires, Mettre en place une veille technologique et être force de proposition sur les différents projets initiés, Améliorer continuellement améliorer les pratiques d’Intégration Continue / Livraison Continue (CI/CD), Contribuer à l’évolution d’une communauté d’experts déjà existante. Être un acteur du changement, influencer et promouvoir la démarche DevOps au sein du programme.

Freelance

Mission freelance
Ingénieur cloud et devops (H/F)

OCTOGONE
Publiée le
Bash
Docker
Kubernetes

6 mois
450-650 €
Valence, Auvergne-Rhône-Alpes

vous aurez pour tâches de : - Analyser la chaîne d’intégration et de déploiement continu des développements logiciels du programme - Définir la logique d’intégration sur la nouvelle plateforme, évaluer l’écart avec le code existant, estimer la charge de réalisation - Produire des recommandations à destination des ingénieurs logiciels du programme quant aux bonnes pratiques sur le cloud - Construire, tester et optimiser la nouvelle chaîne CICD sur la plateforme cible - Accompagner la prise en main de la nouvelle chaîne CICD par l’équipe produit

Freelance
CDI
CDD

Offre d'emploi
Dev Python Forecasting

Gentis Recruitment SAS
Publiée le
Databricks
Kubernetes
Python

3 ans
10k-80k €
Paris, France

Nous recherchons un(e) développeur(se) python passionné(e) pour rejoindre notre équipe et contribuer à la création d'une librairie Python (un SDK) à destination de nos data engineers et de nos data scientists. Cette librairie servira de base à nos équipes Quants pour qu'ils développent des modèles avancés de prévision de la consommation et de la production d'énergie. Le SDK fournira le niveau d'abstraction requis afin d'assurer une séparation claire entre la préparation des données, le développement des modèles (exploration, entraînement) et les besoins en infrastructure sous-jacents. Le profil idéal est : - Un(e) passionné(e) du développement Python, capable de jongler avec les bibliothèques et les frameworks. - Un(e) geek qui adore résoudre des énigmes algorithmiques et trouver des solutions élégantes. - Un(e) artisan du code qui sait comment rendre les systèmes scalables et performants. - Quelqu’un qui comprend les enjeux du MLOps et qui a idéalement déjà navigué dans l’univers de Databricks/SageMaker. Le poste requiert une maîtrise avancée de Python, avec une solide expérience dans le développement de librairies et de packages. Une expérience préalable autour de Feature Stores/Model Registries est un plus certain. Contexte XXXX est un acteur majeur de la transition énergétique vers la neutralité carbone, qui investit massivement dans la digitalisation et la modernisation de son système d’information. Le groupe a récemment entrepris de créer une plateforme dédiée au forecasting, qui s’appuie sur l’intelligence artificielle, le big data et les données météorologiques pour optimiser la gestion des risques et la performance des activités Supply et Renewables.

Freelance
CDI

Offre d'emploi
Consultant expert Kubernetes

YGL consulting
Publiée le
Apache Tomcat
Docker
Kubernetes

6 mois
10k-50k €
Paris, France

nous recrutons un( e) consultant( e) expert kubernetes pour le compte de note client parisien Missions: - Accompagnement des équipes de développement pour Dockeriser leurs applications - Réalisation de script shell et python - Réalisation de playbooks et de rôles ansible - Réalisation de déploiements Terraform - Réalisation de pipeline groovy sur jenkins - Réalisation de chart Helm - Documentation des script d'automatisation - Assistance et support des équipes de développement - Communication avec les équipes d'infrastructure

Freelance

Mission freelance
INGENIEUR DATA SPARK SCALA F/H

GENIOUS
Publiée le
Apache Spark
Big Data
Scala

3 ans
100-610 €
Île-de-France, France

Genious Systèmes recherche pour un de ses clients un Ingénieur Data Spark Scala F/H Contexte Mission: Sur une architecture Big Data permettant de collecter les données de l’ensemble des Back Office dans un Datalake (cluster Hadoop), le projet consiste à exploiter ces données pour alimenter un Dataware communautaire stockée sur une base Exadata. Cette exploitation est réalisée par la conception de nouveaux traitements Spark/Scala manipulant les données raffinées du DataLake avec des règles métiers décisionnelles. Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : Conception détaillée, fonctionnelle et technique. Développements SPARK / SCALA Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. Packaging et déploiement en pre-production et production. Optimisation des traitements afin de garantir la qualité de service standards du DWG. Mise en œuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. Mise en service et accompagnement au déploiement. Suivi des environnements. Le consultant devra travailler en étroite collaboration avec le Chef de Projet, responsable du lot et l'équipe de développement du Programme.

Freelance

Mission freelance
Ingénieur cloud et devops (H/F)

OCTOGONE
Publiée le
Bash
Docker
Gitlab

6 mois
450-600 €
Osny, Île-de-France

vous aurez pour tâches de : - Analyser la chaîne d’intégration et de déploiement continu des développements logiciels du programme - Définir la logique d’intégration sur la nouvelle plateforme, évaluer l’écart avec le code existant, estimer la charge de réalisation - Produire des recommandations à destination des ingénieurs logiciels du programme quant aux bonnes pratiques sur le cloud - Construire, tester et optimiser la nouvelle chaîne CICD sur la plateforme cible - Accompagner la prise en main de la nouvelle chaîne CICD par l’équipe produit

Freelance
CDD

Offre d'emploi
Développeur Linux Kernel / DevOps ▸ Energie

CONCRETIO SERVICES
Publiée le
Docker
Kubernetes
KVM (Kernel-based Virtual Machine)

2 mois
55k-65k €
Grenoble, Auvergne-Rhône-Alpes

Expertise en noyau Linux en temps réel : Maîtrise approfondie des concepts et des mécanismes du noyau Linux en temps réel, avec une expérience pratique dans la configuration, le développement et le débogage. Orchestration d'applications : Expérience avérée dans l'utilisation d'outils d'orchestration d'applications tels que Kubernetes, Docker Swarm ou des solutions personnalisées pour gérer efficacement des environnements complexes. Déploiement d'applications de contrôle : Connaissance approfondie des techniques de déploiement et de gestion d'applications de contrôle, y compris la configuration des environnements, la surveillance des performances et la résolution des incidents. Compétences en programmation : Maîtrise des langages de programmation courants tels que C/C++, Python, ainsi que des compétences en scripting pour l'automatisation des tâches. Communication et travail d'équipe : Fortes capacités de communication interpersonnelle, avec une aptitude démontrée à collaborer efficacement avec des équipes multidisciplinaires pour atteindre des objectifs communs.

Freelance

Mission freelance
Ingénieur Data (Spark / Scala) H/F

HAYS MEDIAS
Publiée le
Apache Spark
Oracle
Scala

3 mois
100-640 €
Puteaux, Île-de-France

La Direction des Systèmes d’Information a pour missions de mettre au quotidien à disposition des 25 000 utilisateurs les données et les traitements nécessaires à leur activité, dans le respect des contrats de service; de garantir la sécurité et la pérennité des actifs informatiques du Groupe; d’accompagner le développement commercial du Groupe en France et à l’international ; d’élaborer de nouveaux systèmes d’information, de nouvelles infrastructures techniques et de maintenir les systèmes existants. Sur une architecture Big Data permettant de collecter les données de l’ensemble des Back Office dans un Datalake (cluster Hadoop), le projet consiste à exploiter ces données pour alimenter un Dataware communautaire stockée sur une base Exadata. Cette exploitation est réalisée par la conception de nouveaux traitements Spark/Scala manipulant les données raffinées du DataLake avec des règles métiers décisionnelles. Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : - Conception détaillée, fonctionnelle et technique. - Développements SPARK / SCALA - Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. - Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. - Packaging et déploiement en pre-production et production. - Optimisation des traitements afin de garantir la qualité de service standards du DWG. - Mise en œuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. - Mise en service et accompagnement au déploiement. - Suivi des environnements.

CDI

Offre d'emploi
Ingénieur DEVOPS (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Ansible
CI/CD
Kubernetes

40k-55k €
Lille, Hauts-de-France

🔍 Missions pour l'Ingénieur DevOps : Automatisation des pipelines CI/CD pour accélérer le déploiement des applications tout en garantissant leur fiabilité et leur sécurité. Orchestration des conteneurs avec Kubernetes , assurant la scalabilité et la gestion efficace des microservices. Gestion de l'infrastructure as code (IaC) avec Terraform ou Ansible , permettant une gestion cohérente et reproductible des environnements de production, de test et de développement. Surveillance et optimisation des performances des systèmes en place, en utilisant des outils de monitoring avancés pour prévenir les incidents avant qu'ils ne surviennent. Collaboration étroite avec les équipes de développement et d'opérations pour instaurer une culture DevOps forte, favorisant l'intégration et la livraison continues (CI/CD) . Sécurisation des pipelines de déploiement et de l'infrastructure cloud via des pratiques de sécurité DevOps (DevSecOps) , incluant la gestion des vulnérabilités et la conformité.

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous