Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 293 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
INGENIEUR DE PRODUCTION / CHARGE D’INTEGRATION– AIX EN PROVENCE H/F

Acpqualife
Publiée le
Apache Tomcat
Bitbucket
DAT

48k-53k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Quel poste proposons-nous ? Dans le cadre de notre développement en région PACA, nous recherchons un Ingénieur Chargé d’Applications / Intégrations (H/F) pour intervenir chez un client grand compte basé à 15 min d’Aix-en-Provence. Le collaborateur intégrera le service « Intégration et Exploitation des Applications » dans la Direction de l’Exploitation. Vos missions consisteront notamment à : Conception d’architecture technique en prenant en compte la résilience et redondance pour répondre à la disponibilité des services en production, Clusterisation Architecture technique orientée middleware et rédaction des DAT Déployer des applications en PREPRODUCTION et PRODUCTION au sein d’un périmètre sensible à haut niveau de sécurité. Concevoir et réaliser les changements complexes afin d'assurer la disponibilité et de la continuité de service du SI. Gérer des incidents N2 et ou N3. Assurer le maintien en conditions opérationnelles des applications. Veiller au maintien de la sécurité opérationnelle. Alimenter et faire respecter le référentiel de connaissance et de bonnes pratiques, MAJ du référentiel documentaire. Accessible : 2 jours de télétravail et 3 jours de présentiel – 1er moins intégration en présentiel

CDI
Freelance

Offre d'emploi
Ingénieur Big Data - DevOps (H/F)

VISIAN
Publiée le
Apache Kafka
Apache Spark
Docker

3 mois
40k-65k €
Marseille, Provence-Alpes-Côte d'Azur

Orienté Big Data et ayant des compétences dans les domaines listés ci-joint : Kafka, Spark, Hbase, Hive, Hadoop, Jenkins, Ansible, Github, Scala, Python, Linux, Kube, Linux. Objectifs et livrables L’expertise technique sur le Datalake (plateforme Big Data) consistera à : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake : gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de mises en production · Contribuer à l’amélioration continue des outils d’exploitation · Communication auprès des utilisateurs finaux Le consultant devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Freelance
CDI

Offre d'emploi
Architecte Solution Logicielle C++

HIGHTEAM
Publiée le
Ansible
Apache Kafka
Cassandra

3 ans
10k-70k €
Île-de-France, France

Vous souhaitez intervenir sur un service majeur de l'entreprise en tant qu'architecte de solution logicielle, résolvant diverses problématiques. Vous êtes intrépide face aux défis et êtes motivé(e) par la perspective de les surmonter. Vous êtes passionné(e) par les défis complexes de l'intégration et des technologies de pointe. Vous appréciez travailler dans un environnement collaboratif et agile tout en étant capable de travailler de manière autonome. Vous excellez à guider vos équipes vers l'excellence technique et opérationnelle. Vous possédez une expérience substantielle en tant qu'architecte, ayant contribué à des projets d'envergure. Vous avez développé des solutions répondant à des exigences rigoureuses telles que le temps réel, la sécurité et la disponibilité 24/7.

Freelance
CDI

Offre d'emploi
Développeur Java/Angular (H/F)

Créalis Ingénierie
Publiée le
Angular
Apache Tomcat
API REST

6 mois
30k-50k €
Bordeaux, Nouvelle-Aquitaine

Au sein Créalis Bordeaux et pour le compte de notre client, vos missions seront essentiellement: Participer aux ateliers de conception technico fonctionnels Estimer vos charges et votre reste à faire Développer les composants répondant aux normes et standards des technologies utilisées Produire le code et utiliser un gestionnaire de configuration Participer activement aux daily et rituels du projet Écrire des tests unitaires Participer aux campagnes de tests Assurer la documentation et la capitalisation Participer à la vie de l'équipe

Freelance
CDI

Offre d'emploi
Chef de projet MOE Data & PMO

CELAD
Publiée le
Big Data

1 an
10k-64k €
Paris, France

En étroite collaboration avec le Chef de Service, les architectes fonctionnels, les ingénieurs Data, la MOA et les métiers, la mission est garante de la bonne réalisation de certains projets transverses. Elle se compose à part égale d'un volet 'Chef de projet' et d'un volet 'PMO'. Volet Chef de Projet - Piloter et assurer la mise en œuvre des évolutions/projets dont vous aurez la charge dans le respect de la qualité, coûts et délais définis avec les intervenants, des process et normes G2S - Produire le reporting des évolutions/projets dont vous aurez la charge Volet PMO - Effectuer un reporting régulier et rigoureux vers son responsable en veillant à la qualité des informations de pilotage - Définir et mettre en place un plan de communication autour des différents projets et instances - Mettre en oeuvre et piloter le planning des travaux de l'équipe et des contributions auprès des autres équipes - Travailler les différents templates projets, la roadmap fonctionnelle, l'optimisation des interactions avec les autres services - Coordonner les différents prestataires

Freelance
CDI

Offre d'emploi
Architecte système Kafka Confluent

HIGHTEAM
Publiée le
Apache Kafka

3 ans
10k-70k €
Île-de-France, France

Responsabilités principales • Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. • Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance. • Élaborer des stratégies de déploiement de Kafka, incluant la configuration des clusters, le choix des machines, et la définition des paramètres de performance. • Assurer l'intégration de Kafka avec diverses sources de données et plateformes de traitement en aval. • Diriger les évaluations de sécurité et les audits de conformité pour les infrastructures Kafka. • Fournir un soutien technique et une expertise lors de la résolution de problèmes complexes. • Développer et maintenir la documentation technique, y compris les architectures de référence et les meilleures pratiques. • Mentorat et formation des développeurs et des autres architectes dans l'utilisation optimale de Kafka et Confluent.

CDI

Offre d'emploi
Ingénieur devOps (spécialisé KAFKA) _ Sophia Antipolis / (H/F)

ENGIT
Publiée le
Apache Kafka
Kubernetes

43k-55k €
Valbonne, Provence-Alpes-Côte d'Azur

engIT recrute un ingénieur devOps (Kafka) pour intégrer les équipes transverses et middleware de notre partenaire leader mondial dans son secteur. Vous participerez à des projets où une infrastructure haute performance capable de supporter des volumes de données massif en temps réel est nécessaire. Principales responsabilités : Faire évoluer et concevoir des infrastructures Cloud (Kubernetes) Azure Utiliser les processus CI/CD Appréhender et concevoir une infrastructure répondant à des problématiques de haute disponibilité et architectures distribuées (Kafka) Monitorer la plateforme (Prometheus) Utiliser les outils d’infrastructure (Terraform, Ansible, etc.)

Freelance

Mission freelance
Architect KAFKA confluent

Cherry Pick
Publiée le
Apache Kafka
Architecture

12 mois
600-650 €
Paris, France

Dans le cadre de la création de l’équipe streaming basé sur la technologie KAFKA Confluent Cloud, nous recrutons un(e) Système Architecte Kafka confluent Cloud. En tant qu'Architecte Kafka sur Confluent, vous serez responsable de la conception et de l'implémentation des architectures de streaming de données à grande échelle en utilisant Apache Kafka et la plateforme Confluent. Vous travaillerez étroitement avec les équipes de développement et d'opérations pour assurer la scalabilité, la sécurité et l'efficacité des solutions de données. Responsabilités principales Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance. Élaborer des stratégies de déploiement de Kafka, incluant la configuration des clusters, le choix des machines, et la définition des paramètres de performance. Assurer l'intégration de Kafka avec diverses sources de données et plateformes de traitement en aval. Diriger les évaluations de sécurité et les audits de conformité pour les infrastructures Kafka. Fournir un soutien technique et une expertise lors de la résolution de problèmes complexes. Développer et maintenir la documentation technique, y compris les architectures de référence et les meilleures pratiques. Mentorat et formation des développeurs et des autres architectes dans l'utilisation optimale de Kafka et Confluent. Ce rôle implique : L'accompagnement des équipes clientes IT dans la mise en œuvre des solutions liées à Kafka L’encadrement d’équipes techniques sur les projets L’accompagnement de nos équipes sur leur montée en compétences L’écriture des spécifications techniques en amont de la réalisation La validation des chiffrage projets Gestion de back log utilisant la méthode adaptée Le travail en étroite collaboration avec l’équipe IT Métier pour délivrer les projets selon les priorités stratégiques partagée Et, surtout, et créer un cadre de travail harmonieux et valoriser le travail des équipes de développements pour fédérer les meilleurs talents Expérience attendue Expérience dans le développement opérationnel de flux sous KAFKA Expérience significative sur la plateforme Confluent Expérience significative dans un environnement Agile/ Hybrid Expérience de management d’équipes de développeurs et de suivi du delivery Test unitaire/Compliance /Performance Documentation & procédures afin de facilité au support le Monitoring technico fonctionnel des interfaces/Jobs Expérience SAP (ECC & S4/HANA) serait apprécié Coordination avec l’équipe de DEV afin de délivrer un support N3.

Freelance

Mission freelance
Data Engineer (H/F) - Paris

Mindquest
Publiée le
Apache Kafka
Apache Spark
Cassandra

6 mois
700 €
Paris, France

Ingestion des données sources via NIFI dans des tables de travail Cassandra ou en parquet sur AWS S3 Développement des Traitements Spark/Scala en lots des données sources ingérées Traitement au quotidien des nouvelles données clients (ajout nouveaux clients Enrichissement au quotidien des données des clients avec des fichiers de scoring et de segmentation (fournis par un autre projet) Traitement toutes les 8 heures des nouvelles ventes avec notamment la mise à jour des ventes auditées ainsi que l’enrichissement des ventes avec les données des clients Ingestion toutes les 8 heures des données des ventes dans Druid Ajout et mise à jour des nouveaux produits des marques avec leur description, leur taille, leurs stocks …. Traitement en temps réel via Kafka/Spark des données sources fournies par les marques dans les topics dédiés : Enrichissement des données des produits des différentes marques en temps réel avec les informations des stocks, des prix Mise à jour temps réel des données des ventes Mise à jour temps réel des données clients Mise à jour des commandes clients Anonymisation des informations clients (RGPD) Mise à jour des stocks disponibles en magasin Exposition des informations des produits en transit (magasin d’origine, magasin destination) afin que les utilisateurs de Luce puissent estimer leurs dates de livraison Traitement et Stockage des données dans Apache Solr et Cassandra Exposition des données traitées dans une API nodejs à travers Cassandra et Solr Ingestion des données des ventes et commandes sur Apache Druid via NIFI Mise en place de tests automatiques afin d’éviter les régressions suite aux nouvelles évolutions Développement de tests unitaires avant déploiement Garantie de la cohérence des données Planification des heures de lancement des différents traitements afin d’éviter d’avoir des données corrompues Déploiement des différents traitements Spark via Jenkins/Livy dans les environnements dédiés Monitoring des Jobs Spark via Yarn et Spark UI avec un système d’alerting via Slack en cas de problème durant les traitements Mise en place de logs qui seront ensuite déposés dans ElasticSearch afin de faciliter la résolution et la recherche des bugs Optimisation des différents traitements Data (optimisation du code Spark, des traitements NIFI) Migration de tous nos workflows NIFI, traitements de données en lots/ temps réel Spark sur Amazon AWS Migration de l’api ainsi que des tables et collections utilisées dans Cassandra Environnement sur AWS Ordonnancement des tâches via Airflow/Python, gestion des différentes dépendances entre les traitements Mise à jour d’une librairie Airflow pour le lancement de nos Jobs Sparks ainsi que le monitoring (vérification des statuts des traitements). Mise en place des capteurs (sensors) nécessaires pour le suivi des statuts des traitements Mise à jour d’une librairie générique Spark pour les jobs d’ingestion via parquet/csv/json

Freelance
CDI

Offre d'emploi
Data Engineer - Développeur JAVA / DevOps

OMICRONE
Publiée le
Apache Spark
CI/CD
Dataiku

1 an
10k-60k €
Île-de-France, France

Chers consultants, Nous sommes à la recherche d'un Ingénieur Data - Développeur JAVA / DevOps Senior pour rejoindre notre client, une banque leader à Paris. Missions La prestation aura lieu au sein de la banque exerce une responsabilité mondiale sur le Système d’Information contribuant à la réalisation des objectifs des métiers de la banque Commerciale, du Financement et du Trade. Dans ce contexte, la prestation Data Engineer (Développeur Java/DevOps) aura pour objectifs : • Comprendre les besoins clients dans le but de définir les solutions les plus adaptées • Assurer le développement des nouvelles fonctionnalités liées l’intégration, l’exposition et l’exploitation des Données • Définir et organiser les contrôles nécessaires à la mise en qualité de ces Données • Développer en Java/Spark/ des traitements de transformation et de production de données • Développement d’un moteur de règles • Être garant de la qualité du produit sur les aspects code, documentation, testabilité et performance • Designer des chaines optimisées CI/CD en collaboration avec les équipes DEVOPS • Participer à l'amélioration continue et à la revue de code

Freelance

Mission freelance
Développeur fullstack JavaScript

ICSIS
Publiée le
Angular
Apache Kafka
Git

2 ans
350-500 €
Lille, Hauts-de-France

Vous serez responsable de: - Concevoir et contribuer au développement du produit - Rédaction des documentations techniques - Mise en place et/ou renforcement de best practices autour du testing, de l'alerting, du monitoring pour assurer la qualité, la stabilité et la extensibilité du produit; - Reprendre en main l’outil afin d’y ajouter les besoins spécifiques - Missions basées en métropole lilloise avec présence sur site obligatoire 3j/semaine Compétences demandées : - Min. 3 ans d’expérience en développement (hors stage et alternance) ++: Nodejs / Nest.js ++ : React / Vue / Angular ++: BDD : GCP, MongoDB, PostgreSQL ... ++: Kafka +: CI/CD ou GitHub Actions - Maitrise et pratique de l'Agile Anglais un + Mission en métropole lilloise avec télétravail partiel (2-3 jours)

Freelance

Mission freelance
DATA ENGINEER SPARK / SCALA

UCASE CONSULTING
Publiée le
Apache Spark
Scala

3 ans
100-600 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un data engineer spark / scala. Mission : Livrables n 1 : Sprint n 1 + Lot 1 : développement des US et tests associés ; + Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d’exploitation ; + Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; + Lot 4 : Mise en place du monitoring ; LE PROFIL RECHERCHE Compétences métiers & outils : Les compétences technologiques attendues sont : + Indispensables : maîtrise de l’API Scala Spark (batch principalement), maîtrise des techniques d’optimisation Spark, expérience dans le traitement de volumétries importantes / complexes, développement et bonnes pratiques Scala, build Maven, travail en environnement cloud (idéalement Azure) + Appréciées : écosystème Databricks, développement d’API HTTP, expérience sur la stack ELK Compétences transverses + Aisance relationnelle + Esprit d’équipe et d’adaptabilité + Esprit de synthèse + Rigueur et esprit d’analyse + Autonomie + Force de proposition + Vous avez le sens des priorités et la capacité à gérer les délais + Vous aimez le travail en mode multi-projets + Appétence client, besoin métier et compréhension du fonctionnel + Mentoring et partage de connaissances

Freelance

Mission freelance
DevOps (H/F)

CTG
Publiée le
Apache Spark
Jenkins
Kubernetes

3 ans
100-600 €
Paris, France

En tant que DevOps vous travaillerez en direct avec le Team Lead, les business analystes et le PO. Vous aurez à cœur de comprendre le business model. Les projets à adresser visent le développement et maintenance de modules de gestion des données de consommation (intégration, transformation et exposition), de contrats, et leur représentation à travers différentes interfaces. Vos activités principales seront : Conception, mise en place (scripts versionnés dans GIT, paramétrage, TDD et tests d'intégration) et livraison en production des applications dans les règles de l'art - Contribution aux Agile de l'entité dans le respect du framework Scrum (Daily meeting, Review, Rétrospective, Sprint Planning), - Maintien de la documentation technique et fonctionnelle - L'amélioration continue des processus et bonnes pratiques de développement (au sein de l'entité, mais aussi des entités du Socle BigData) - Support de production

CDI

Offre d'emploi
Consultant BI (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Airflow
AWS Cloud
BigQuery

40k-50k €
Lille, Hauts-de-France

💼 Missions pour le Consultant BI : Développement et optimisation : Concevoir et déployer des solutions BI en utilisant Tableau, Power BI, SQL , Python, et plus, pour répondre aux besoins des clients. Analyse de données : Utiliser AWS, DBT, Databricks, GCP ( BigQuery ), pour l'analyse et la transformation des données. Automatisation des processus : Mettre en place des pipelines de données automatisés avec Docker, Airflow, et Git. Surveillance et optimisation : Utiliser Datadog, Looker, SAP BO, Cognos , pour surveiller les performances et optimiser les systèmes. Expertise technique : Fournir des conseils d'expert sur SQL Server, Cubes , SSIS, SSRS, SSAS , pour améliorer les processus et les performances.

Freelance

Mission freelance
Chef de Projet Data Confirmé et PMO F/H

GENIOUS
Publiée le
Agile Scrum
Big Data

3 ans
100-610 €
Île-de-France, France

Genious Systèmes recherche pour un de ses clients un(e) Chef de Projet Data Confirmé(e) & PMO F/H Vous intervenez sur les projets transverses du service. En étroite collaboration avec le Chef de Service, les architectes fonctionnels, les ingénieurs Data, la MOA et les métiers, la mission est garante de la bonne réalisation de certains projets transverses. Elle se compose à part égale d'un volet 'Chef de projet' et d'un volet 'PMO'. Volet Chef de Projet Piloter et assurer la mise en œuvre des évolutions/projets dont vous aurez la charge dans le respect de la qualité, coûts et délais définis avec les intervenants, des process et normes Produire le reporting des évolutions/projets dont vous aurez la charge Volet PMO Effectuer un reporting régulier et rigoureux vers son responsable en veillant à la qualité des informations de pilotage Définir et mettre en place un plan de communication autour des différents projets et instances Mettre en œuvre et piloter le planning des travaux de l'équipe et des contributions auprès des autres équipes Travailler les différents templates projets, la roadmap fonctionnelle, l'optimisation des interactions avec les autres services Coordonner les différents prestataires

Freelance

Mission freelance
Chef de projets Data confirmé & PMO - Informatique Décisionnelle - (N132)

Kaïbee
Publiée le
Data management

12 mois
100-550 €
Paris, France

En étroite collaboration avec le Chef de Service, les architectes fonctionnels, les ingénieurs Data, la MOA et les métiers, la mission est garante de la bonne réalisation de certains projets transverses. Elle se compose à part égale d'un volet 'Chef de projet' et d'un volet 'PMO'. Volet Chef de Projet - Piloter et assurer la mise en œuvre des évolutions/projets dont vous aurez la charge dans le respect de la qualité, coûts et délais définis avec les intervenants, des process et normes G2S - Produire le reporting des évolutions/projets dont vous aurez la charge Volet PMO - Effectuer un reporting régulier et rigoureux vers son responsable en veillant à la qualité des informations de pilotage - Définir et mettre en place un plan de communication autour des différents projets et instances - Mettre en oeuvre et piloter le planning des travaux de l'équipe et des contributions auprès des autres équipes - Travailler les différents templates projets, la roadmap fonctionnelle, l'optimisation des interactions avec les autres services - Coordonner les différents prestataires

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous