Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Solr

Votre recherche renvoie 158 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Tech Lead MLOPS (H/F)

SCALIAN
Publiée le
Apache Kafka
AWS Cloud
Data science

12 mois
70k-80k €
Paris, France

• Mettre en place l’outillage Datascience et MLOPS et identifier les patterns et normes pour un usage par 40 caisses régionales • Évaluer et adopter de nouvelles technologies et méthodologies pour améliorer les processus MLOps et l'efficacité de l'équipe • Diriger l'élaboration et la mise en œuvre des pipelines / solutions MLOps pour l'entraînement, le déploiement et la surveillance des modèles ML • Superviser et encadrer une équipe technique, en fournissant une orientation technique, en fixant des objectifs et en assurant la montée en compétence des équipes internes • Participer à l'exploration continue (étude d'opportunité, cadrage) et aider à estimer l'effort et la valeur délivrée par les choix de designs éligibles pour favoriser la priorisation par le Product Owner et le Pôle Utilisateur (évolutivité, testabilité, déployabilité...) • Collaborer avec les parties prenantes internes pour comprendre les besoins métier et fournir des solutions ML efficaces et évolutives • Décliner le cadre d’Architecture d’Entreprise(processus, normes, patterns …) et contribuer à son évolution • Faciliter la prise de décision de manière collaborative sur la meilleure architecture (conformité, sécurité, risques...), avec un juste équilibre entre le respect de la cible d'entreprise et la réponse pragmatique au besoin • Maitrise les objectifs visés par le cadre d'Architecture d’Entreprise et décrit des solutions qui s'y conforment et sont implémentables sous forme incrémentale dans les sprints • Suivre et facilite la visibilité de la conformité des solutions de son périmètre par rapport à la stratégie d'entreprise • Responsable de la documentation produit(s) en veillant à sa pertinence, fiabilité et sa cohérence avec les cadres de référence de l'architecture (processus, guides, patterns...).

Freelance

Mission freelance
Ingénieur Data (Spark / Scala) H/F

HAYS MEDIAS
Publiée le
Apache Spark
Oracle
Scala

3 mois
100-640 €
Puteaux, Île-de-France

La Direction des Systèmes d’Information a pour missions de mettre au quotidien à disposition des 25 000 utilisateurs les données et les traitements nécessaires à leur activité, dans le respect des contrats de service; de garantir la sécurité et la pérennité des actifs informatiques du Groupe; d’accompagner le développement commercial du Groupe en France et à l’international ; d’élaborer de nouveaux systèmes d’information, de nouvelles infrastructures techniques et de maintenir les systèmes existants. Sur une architecture Big Data permettant de collecter les données de l’ensemble des Back Office dans un Datalake (cluster Hadoop), le projet consiste à exploiter ces données pour alimenter un Dataware communautaire stockée sur une base Exadata. Cette exploitation est réalisée par la conception de nouveaux traitements Spark/Scala manipulant les données raffinées du DataLake avec des règles métiers décisionnelles. Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : - Conception détaillée, fonctionnelle et technique. - Développements SPARK / SCALA - Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. - Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. - Packaging et déploiement en pre-production et production. - Optimisation des traitements afin de garantir la qualité de service standards du DWG. - Mise en œuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. - Mise en service et accompagnement au déploiement. - Suivi des environnements.

Freelance

Mission freelance
Développeur full stack java/vue (H/F)

Insitoo Freelances
Publiée le
Apache Kafka
Docker
Java

2 ans
100-440 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur full stack java/vue (H/F) à Lille, Hauts-de-France, France. Contexte : Supply Les missions attendues par le Développeur full stack java/vue (H/F) : Le rôle du dév dans l'équipe : - dév des features + run de l'existant - capacité / curiosité de comprendre le besoin fonctionnel pour trouver la solution tech qui répond au besoin - connaissances devOps - force de proposition / d'amélioration sur le code / l'architecture applicative / l'organisation de l'équipe - TU + Tests automatisés à systématiser Technos : Java 21, Spring boot 3, MongoDB, Postgresql, CI/CD Github actions, Kubernetes, Docker (modifié), Datadog A noter, même si elles ne sont pas encore en place dans l'équipe, des astreintes seront certainement mises en places au cours de l'année.

Freelance

Mission freelance
Développeur Big Data (H/F)

Insitoo Freelances
Publiée le
Apache Spark
DevOps
Java

2 ans
400-501 €
Lyon, Auvergne-Rhône-Alpes

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur Big Data (H/F) à Lyon, Auvergne-Rhône-Alpes, France. Contexte : Fonctionnement : sur site à Lyon + Télétravail à 50% Les missions attendues par le Développeur Big Data (H/F) : Description du profil : Ses missions tournent autour de 4 axes : o Apporter une expertise en Big Data pour faciliter la manipulation des données o Définir les solutions techniques permettant le traitement massif de données o Mettre en place des solutions de stockage de données o Veiller la sécurisation et la clarté des pipelines de données pour faciliter l’analyse et la transformation Il s’appuie si nécessaire sur les référents techniques des diverses briques si ces dernières sortent du cadre de sa mission. Il met en avant ses qualités pour mener à bien ses missions : o Autonomie, rigueur et force de proposition o Capacités d'analyse et de synthèse. o Esprit d’équipe 4 années d'expérience sont attendues sur le rôle au minimum. Activité principale : o Assure la création, la maintenance, l'optimisation et la sécurité des bases de données o Participe aux développements de flux de données permettant d’alimenter des bases de données o Assure la bonne exécution des traitements et identifie et corrige l’application en cas de problèmes Activité secondaire : o Veille technologique sur les outils utilisés au sein du projet o Partage et formation sur les guides de bonnes conduites Stack technique du projet : Hadoop, Spark, Spring, Java, Kafka, SQL, PostgreSQL, GIT, Ansible, Docker, Kubernetes, Tableau desktop, Power BI

Freelance
CDI

Offre d'emploi
Ingénieur de Production MCO

Deodis
Publiée le
Apache Kafka
Apache Tomcat
Control-M

6 mois
50k-60k €
Marseille, Provence-Alpes-Côte d'Azur

Sur les environnements de préproduction : Contribution à la stratégie des tests, traçabilité de ces derniers au sein des outils de support de la qualification Dans le cadre de la préparation de la Mise en Production (MEP) et/ou de Mise en Service (MES) à venir : Contribution au plan de MEP/MES, Répétition des gestes de MEP/MES en respectant les modes opératoires prévus et le cadencement du plan de MEP/MES Rédaction des tâches de changements Exploitabilité de la solution et Validation d'Aptitude au Bon Fonctionnement (VABF) : Procédures standards : Arrêt / Marche des composants, fourniture des logs, etc... Continuité / Disponibilité des composants applicatifs définissant le service concerné Supervision de la plate-forme et des composants applicatifs Stratégie de Sauvegarde et de Restauration Journalisation / Archivage / RGPD Sur l'environnement de production : Réalisation de la MEP/MES et support à la Validation de Service Régulier (VSR) des projets Assurer le Maintien en Conditions Opérationnelles (MCO) dans un contexte des engagements de services définis avec les directions métiers : Gestion des incidents de production remontés par le service client, les directions métiers, nos filiales et les clients pro, le domaine Loterie ou la Direction des Opérations, Analyse et escalade en anomalie, voir problème lorsque nécessaire, Suivi des incidents pris en charge et anomalies créées Assurer de traitement de Demandes de Travaux (DMT) spécifiques

Freelance

Mission freelance
INGENIEUR DE PRODUCTION / CHARGE D’INTEGRATION– AIX EN PROVENCE H/F

Acpqualife
Publiée le
Apache Tomcat
Control-M
DAT

1 an
450-470 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Quel poste proposons-nous ? Dans le cadre de notre développement en région PACA, nous recherchons un Ingénieur Chargé d’Applications / Intégrations (H/F) pour intervenir chez un client grand compte basé à 15 min d’Aix-en-Provence. Le collaborateur intégrera le service « Intégration et Exploitation des Applications » dans la Direction de l’Exploitation. Vos missions consisteront notamment à : Conception d’architecture technique en prenant en compte la résilience et redondance pour répondre à la disponibilité des services en production, Clusterisation Architecture technique orientée middleware et rédaction des DAT Déployer des applications en PREPRODUCTION et PRODUCTION au sein d’un périmètre sensible à haut niveau de sécurité. Concevoir et réaliser les changements complexes afin d'assurer la disponibilité et de la continuité de service du SI. Gérer des incidents N2 et ou N3. Assurer le maintien en conditions opérationnelles des applications. Veiller au maintien de la sécurité opérationnelle. Alimenter et faire respecter le référentiel de connaissance et de bonnes pratiques, MAJ du référentiel documentaire. Accessible : 2 jours de télétravail et 3 jours de présentiel – 1er moins intégration en présentiel

CDI

Offre d'emploi
Consultant BI (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Airflow
AWS Cloud
BigQuery

40k-50k €
Lille, Hauts-de-France

💼 Missions pour le Consultant BI : Développement et optimisation : Concevoir et déployer des solutions BI en utilisant Tableau, Power BI, SQL , Python, et plus, pour répondre aux besoins des clients. Analyse de données : Utiliser AWS, DBT, Databricks, GCP ( BigQuery ), pour l'analyse et la transformation des données. Automatisation des processus : Mettre en place des pipelines de données automatisés avec Docker, Airflow, et Git. Surveillance et optimisation : Utiliser Datadog, Looker, SAP BO, Cognos , pour surveiller les performances et optimiser les systèmes. Expertise technique : Fournir des conseils d'expert sur SQL Server, Cubes , SSIS, SSRS, SSAS , pour améliorer les processus et les performances.

CDI

Offre d'emploi
Développeur Back End Senior

Aepsilon
Publiée le
Apache Kafka
Apache Tomcat
J2EE / Java EE

45k-47k €
Valbonne, Provence-Alpes-Côte d'Azur

Vous offririez bien un peu de challenge à votre vie professionnelle, mais vous n’avez pas encore trouvé LE rôle qui va vous donner cette envie de changement ? Il se peut que l’on ait quelque chose à vous proposer :) En effet, nous vous proposons de rejoindre une entreprise à taille humaine, dynamique et bienveillante. Son domaine d’activité : le voyage. Son objectif : simplifier la réservation des billets d’avion grâce à des solutions innovantes. Venons-en au poste : nous recherchons un Développeur back-end senior . Challenger l’architecture de la solution Prendre part aux décisions concernant les évolutions techniques Gérer la migration du back-end historique vers un nouveau back-end (architecture micro services) Définir les bonnes pratiques de développement pour le back-end Définir, développer et maintenir les composants transverses qui constituent le socle technique back-end Participer à l'élaboration de la documentation nécessaire à l’exploitation et au maintien des applications Assurer une veille sur les technologies back Choisir les technologies les plus judicieuses en fonction de son contexte Liste évidemment non exhaustive ! Suivant la méthodologie Scrum, vous travaillerez en étroite collaboration avec deux développeurs back-end et un développeur front-end, un Product Owner et un CTO.

Freelance
CDI

Offre d'emploi
Data Engineering - TALEND / SPARK / SCALA / MSBI

Digistrat consulting
Publiée le
Apache Spark
Hadoop
Microsoft Power BI

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : L'entité a pour charge la maintenance, le support et l'évolution de l'outil concernant le pilotage financier de la banque, des directions centrales et de la facturation interne du groupe. Les outils sont basés sur les technologies Big Data pour le stockage, Talend et Spark/Scala pour les traitements, la suite MSBI SQL Server et cube SSAS pour l'analyse mutlidimensionnelle et enfin du Power BI pour la restitution. Le Bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - Support de l'application (notamment lors des clôtures mensuelles) - La maintenance évolutive - La conception et l'implémentation de nouvelles fonctionnalités - La refonte technique - La migration de Talend vers Spark/scala Environnement anglophone 2 - Livrables attendus Les livrables attendus sont : - Optimisation des performances - Le support de l'application et la documentation - La livraison des evolutions - La livraison des nouvelles fonctions demandées dans le cadre des projets.

CDI

Offre d'emploi
Développeur JAVA F/H/X

Mantu Groupe ( Amaris )
Publiée le
Apache Struts
J2EE / Java EE
Java

35k-41k €
Mulhouse, Grand Est

Êtes-vous passionné.e par le développement d'applications web robustes en Java, avec une expertise particulière dans le Framework Struts ? Nous recherchons un.e expérimenté.e qui souhaite relever de nouveaux défis et garantir l'excellence technique de nos produits. Rejoignez-nous et jouez un rôle clé dans la création d'applications web innovantes et fiables, en utilisant votre expertise en Java et Struts. 🔥 Vos responsabilités : Développement sous Java : Prendre en charge une partie des développements en respectant les règles et méthodes définies, avec une expertise avancée en Java. | Analyse et Évolution : Analyser, corriger et/ou faire évoluer les applications informatiques pour répondre aux besoins changeants du projet. Participation aux Tests : Participer activement aux différentes phases de tests, en garantissant une couverture exhaustive des fonctionnalités et en rédigeant la documentation projet associée. Collaboration en Équipe : Travailler efficacement au sein d'une équipe multidisciplinaire, en assurant une cohérence parfaite avec les objectifs du projet et en respectant les normes d'assurance qualité ISO 9001.

Freelance

Mission freelance
Architecte Cloud Native (H/F)

LeHibou
Publiée le
Apache Kafka
Cloud
Kali Linux

12 mois
470-550 €
Paris, France

Notre client dans le secteur Assurance recherche un Architecte cloud native H/F Descriptif de la mission : Nous recherchons pour notre client un architecte cloud, afin de l'accompagner dans une transformation visant à devenir un "cloud service provider" pour les métiers et les marques. Lors de cette mission, les 2 capacités essentielles sont : - Celle de maitriser les principes de conception/développement logiciel et des liens avec les composants middleware L’objectif de la mission est de définir et mettre en place les principes de l’architecture des applications Cloud Native. - Définir les principes de conception d’une application dite Cloud Native en positionnant le rôle des API et du maillage de service - Définir les principes de mises en place des architectures de type microservices dont la granularité associée - Définir et accompagner la mise en œuvre du maillage de services via l’approche ServiceMesh

Freelance
CDI

Offre d'emploi
Data Engineer Spark/Scala (H/F)

CITECH
Publiée le
Apache Spark
Oracle
Scala

12 mois
45k-65k €
Puteaux, Île-de-France

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation de différents projets, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Engineer Spark/Scala (H/F) 🚀 💰 Votre mission est pour un client du secteur banque et assurance qui dispose de 3000 caisses locales sur l’ensemble du territoire ainsi que de 8000 conseillers. Le projet est pour l’une de ses caisses. 📝 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Conception détaillée, fonctionnelle et technique des solutions SPARK/SCALA 🔸 Développement de scripts et modules en SPARK/SCALA 🔸 Formalisation et exécution des plans de tests 🔸 Résolution des anomalies rencontrées lors des phases d'intégration fonctionnelle et de recette utilisateur 🔸 Packaging et déploiement des solutions développées en environnements de pré-production et de production 🔸 Optimisation des traitements Big Data 🔸 Mise en œuvre des solutions industrielles de réentrance

Freelance
CDI

Offre d'emploi
Ingénieur Data SPARK/SCALA

DHM IT
Publiée le
Apache Spark
ITIL
Oracle

3 mois
10k-50k €
Île-de-France, France

Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : Conception détaillée, fonctionnelle et technique. Développements SPARK / SCALA Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. Packaging et déploiement en pre-production et production. Optimisation des traitements afin de garantir la qualité de service standards du DWG. Mise en œuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. Mise en service et accompagnement au déploiement. Suivi des environnements. Le consultant devra travailler en étroite collaboration avec le Chef de Projet, responsable du lot et l'équipe de développement du Programme. Une connaissance d'Oracle est nécessaire Une expérience >5 ans sur des technologies SPARK & SCALA est nécessaire Une connaissance de contexte technologique similaire est un plus

CDI

Offre d'emploi
INGENIEUR DE PRODUCTION / CHARGE D’INTEGRATION– AIX EN PROVENCE H/F

Acpqualife
Publiée le
Apache Tomcat
Bitbucket
DAT

48k-53k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Quel poste proposons-nous ? Dans le cadre de notre développement en région PACA, nous recherchons un Ingénieur Chargé d’Applications / Intégrations (H/F) pour intervenir chez un client grand compte basé à 15 min d’Aix-en-Provence. Le collaborateur intégrera le service « Intégration et Exploitation des Applications » dans la Direction de l’Exploitation. Vos missions consisteront notamment à : Conception d’architecture technique en prenant en compte la résilience et redondance pour répondre à la disponibilité des services en production, Clusterisation Architecture technique orientée middleware et rédaction des DAT Déployer des applications en PREPRODUCTION et PRODUCTION au sein d’un périmètre sensible à haut niveau de sécurité. Concevoir et réaliser les changements complexes afin d'assurer la disponibilité et de la continuité de service du SI. Gérer des incidents N2 et ou N3. Assurer le maintien en conditions opérationnelles des applications. Veiller au maintien de la sécurité opérationnelle. Alimenter et faire respecter le référentiel de connaissance et de bonnes pratiques, MAJ du référentiel documentaire. Accessible : 2 jours de télétravail et 3 jours de présentiel – 1er moins intégration en présentiel

Freelance
CDI

Offre d'emploi
Ingénieur Data Spark / SCALA

HN SERVICES
Publiée le
Apache Spark

3 ans
10k-64k €
Île-de-France, France

La Direction des Systèmes d’Information a pour missions de mettre au quotidien à disposition des 25 000 utilisateurs les données et les traitements nécessaires à leur activité, dans le respect des contrats de service; de garantir la sécurité et la pérennité des actifs informatiques du Groupe; d’accompagner le développement commercial du Groupe en France et à l’international ; d’élaborer de nouveaux systèmes d’information, de nouvelles infrastructures techniques et de maintenir les systèmes existants. Sur une architecture Big Data permettant de collecter les données de l’ensemble des Back Office dans un Datalake (cluster Hadoop), le projet consiste à exploiter ces données pour alimenter un Dataware communautaire stockée sur une base Exadata. Cette exploitation est réalisée par la conception de nouveaux traitements Spark/Scala manipulant les données raffinées du DataLake avec des règles métiers décisionnelles. Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : - Conception détaillée, fonctionnelle et technique. - Développements SPARK / SCALA - Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. - Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. - Packaging et déploiement en pre-production et production. - Optimisation des traitements afin de garantir la qualité de service standards du DWG. - Mise en œuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. - Mise en service et accompagnement au déploiement. - Suivi des environnements. Le consultant devra travailler en étroite collaboration avec le Chef de Projet, responsable du lot et l'équipe de développement du Programme.

Freelance

Mission freelance
DEVELOPPEUR FULL STACK

Coriom Conseil
Publiée le
Apache Kafka
Java
Vue.js

12 mois
100-650 €
Nord, France

VUEJS - Confirmé - Impératif JAVA - Confirmé - Impératif KAFKA - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) Portugais Courant (Secondaire) Description détaillée 🎯 VOTRE MISSION En tant que développeur, vos missions sont les suivantes : Participer activement à toutes les étapes d’un cycle agile : Conception, développement, test, déploiement et maintien en condition opérationnelle des fonctionnalités des nouvelles releases Appliquer en équipe les préconisations d'architecture, de sécurité et de performance pour assurer la qualité et la robustesse des développements réalisés Participer avec les coéquipiers à la construction du contenu des prochaines releases Trouver en équipe des solutions techniques pour atteindre les objectifs fixés Documenter les aspects techniques et partager les connaissances avec les développeurs d’autres domaines Contribuer à l'amélioration des processus de delivery des produits en utilisant les outils DevOps et les méthodes agiles ⚙️ ENVIRONNEMENT TECHNIQUE Java 17 et 21 avec Springboot NodeJS avec NestJS VueJS / Typescript React / Typescript BDD PostgreSQL Kafka 🔥 LES PLUS DU POSTE Contexte multi B.U et international Projet stratégique à fort impact et visibilité Télétravail Flexible 🥇 VOTRE PROFIL 3 ans d’expérience minimum souhaitée Solides compétences en développement backend Maîtrise de VueJS Connaissances en NoSQL souhaitées Aptitude à s'adapter à un environnement dynamique et évolutif Bonne humeur et esprit d’équipe 🙂 Pratique de l’anglais (contexte international)

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous