Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Subversion
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Ingénieur de production
En tant qu'ingénieur de production, votre mission s’articule de manière non exhaustive autour des sujets suivants : Installer et configurer les applications Mettre en place, configurer la supervision et l’ordonnancement Mettre en place, superviser et gérer les sauvegardes Installer les packages applicatifs livrés par les TMA Automatiser/scripter les déploiements Participer à la rédaction des docs (DAT/DEX/doc techniques, MODOP, etc...) Participer aux réunions projets internes Participer aux réunions avec les TMA Participer à la prise en charge et traiter les incidents N2/N3, problèmes, change et demande de service Participer aux projets clients Assurer la sécurité du SI, Antivirus, Patch Management, ... L’Ingénierie de Production est en mesure d’intervenir au sein de l’équipe 'Run' ou 'Projet' pour répondre à des actions ponctuelles ou des expressions de besoins client allant de quelques jours à plusieurs semaine/mois. La mission peut nécessiter des astreintes ou opérations planifiées en HNO selon les besoins clients.
Offre d'emploi
Data engineer scala spark
Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : - Conception détaillée, fonctionnelle et technique. - Développements SPARK / SCALA - Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. - Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. - Packaging et déploiement en pre-production et production. - Optimisation des traitements afin de garantir la qualité de service standards du DWG. - Mise en œuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. - Mise en service et accompagnement au déploiement. - Suivi des environnements. Le consultant devra travailler en étroite collaboration avec le Chef de Projet, responsable du lot et l'équipe de développement du Programme. Une connaissance d'Oracle est nécessaire Une expérience >5 ans sur des technologies SPARK & SCALA est nécessaire Une connaissance de contexte technologique similaire est un plus
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Mission freelance
Développeur Big Data (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur Big Data (H/F) à Lyon, Auvergne-Rhône-Alpes, France. Contexte : Fonctionnement : sur site à Lyon + Télétravail à 50% Les missions attendues par le Développeur Big Data (H/F) : Description du profil : Ses missions tournent autour de 4 axes : o Apporter une expertise en Big Data pour faciliter la manipulation des données o Définir les solutions techniques permettant le traitement massif de données o Mettre en place des solutions de stockage de données o Veiller la sécurisation et la clarté des pipelines de données pour faciliter l’analyse et la transformation Il s’appuie si nécessaire sur les référents techniques des diverses briques si ces dernières sortent du cadre de sa mission. Il met en avant ses qualités pour mener à bien ses missions : o Autonomie, rigueur et force de proposition o Capacités d'analyse et de synthèse. o Esprit d’équipe 4 années d'expérience sont attendues sur le rôle au minimum. Activité principale : o Assure la création, la maintenance, l'optimisation et la sécurité des bases de données o Participe aux développements de flux de données permettant d’alimenter des bases de données o Assure la bonne exécution des traitements et identifie et corrige l’application en cas de problèmes Activité secondaire : o Veille technologique sur les outils utilisés au sein du projet o Partage et formation sur les guides de bonnes conduites Stack technique du projet : Hadoop, Spark, Spring, Java, Kafka, SQL, PostgreSQL, GIT, Ansible, Docker, Kubernetes, Tableau desktop, Power BI
Offre d'emploi
DBA SQL SERVER
Technodym est a la recherche d'un DBA SQL SERVER pour son client basé à Orléans Fiche de poste : · Assurer le support et le conseil aux équipes de la Direction des SI, · Assurer un rôle de conseil et d’expertise technique auprès des Equipes Projets, · Mise en œuvre et administration des bases de données (MS SQL, DB2, Oracle, PostgreSQL, MariaDB), · Appliquer les règles et normes de fonctionnement des SGBD, · Contrôler que procédures et règles sont bien appliquées, · Préconiser et traiter les besoins de supervision et d’automatisation, · Industrialiser les tâches récurrentes, · Gérer les droits d’accès, · Analyser les problèmes de performance et participer aux campagnes de Benchmark, · Contrôler et maintenir les dispositifs de sauvegardes et restauration et assurer la continuité de service, · Suivre et traiter les demandes d’assistance à la mise en Service de projet, · Traiter les incidents et les problèmes, · Valider et mettre en œuvre des fonctions du SGBDR, telle que la réplication, · Qualifier et mettre en œuvre toute évolution technique du SGBD (Mise à jour mineur ou majeur d’un SGBDR, migration de base de données), · Rédiger et actualiser les notes, procédures, CR, · Adapter et maintenir les outils d’exploitation. L’environnement technique du client pour la réalisation de la prestation est le suivant : · MS SQL, SGBD, Oracle, DB2, PostgreSQL, MariaDB, Bases NoSQL, SolR Si vous êtes disponible et intéressé n'hésitez pas à m'envoyer votre CV
Mission freelance
Developpeur Full Stack
Au sein du Domaine Customer Delivery de la plateforme Supply Chain, nous cherchons un développeur fullstack expérimenté pour notre Transport Management System TMS B2C. Ce produit permet de choisir le transporteur adapté à la commande client et de gérer sa livraison et son tracking. Le contexte est international (déploiement dans différents pays), l'anglais courant est un plus. Le projet pivote et nous devons construire "from scratch" plusieurs composants. Le rôle du développeur dans l'équipe : - dév des features + run de l'existant - capacité / curiosité de comprendre le besoin fonctionnel pour trouver la solution tech qui répond au besoin - connaissances devOps - force de proposition / d'amélioration sur le code / l'architecture applicative / l'organisation de l'équipe - TU + Tests automatisés à systématiser
Offre d'emploi
Ingénieur de Production MCO
Sur les environnements de préproduction : Contribution à la stratégie des tests, traçabilité de ces derniers au sein des outils de support de la qualification Dans le cadre de la préparation de la Mise en Production (MEP) et/ou de Mise en Service (MES) à venir : Contribution au plan de MEP/MES, Répétition des gestes de MEP/MES en respectant les modes opératoires prévus et le cadencement du plan de MEP/MES Rédaction des tâches de changements Exploitabilité de la solution et Validation d'Aptitude au Bon Fonctionnement (VABF) : Procédures standards : Arrêt / Marche des composants, fourniture des logs, etc... Continuité / Disponibilité des composants applicatifs définissant le service concerné Supervision de la plate-forme et des composants applicatifs Stratégie de Sauvegarde et de Restauration Journalisation / Archivage / RGPD Sur l'environnement de production : Réalisation de la MEP/MES et support à la Validation de Service Régulier (VSR) des projets Assurer le Maintien en Conditions Opérationnelles (MCO) dans un contexte des engagements de services définis avec les directions métiers : Gestion des incidents de production remontés par le service client, les directions métiers, nos filiales et les clients pro, le domaine Loterie ou la Direction des Opérations, Analyse et escalade en anomalie, voir problème lorsque nécessaire, Suivi des incidents pris en charge et anomalies créées Assurer de traitement de Demandes de Travaux (DMT) spécifiques
Mission freelance
Consultant/Chef de projet Cloud
Pour le compte de l' un de nos clients dans le domaine assuranciel, nous recherchons un Consultant/Chef de projet Cloud L’objectif de la mission est de définir et de mettre en place les principes de l’architecture des applications Cloud Native. - Définir les principes de conception d’une application dite Cloud Native en positionnant le rôle des API et du maillage de service - Définir les principes de mises en place des architectures de type microservices dont la granularité associée - Définir et accompagner la mise en œuvre du maillage de services via l’approche ServiceMesh o Recueillir les besoins et les critères permettant de faire le choix de la plateforme de ServiceMesh o Cadrer les principes et accompagner la mise en œuvre au sein de notre solution de gestion de conteneurs o Définir et accompagner la mise en œuvre des principes de développements de l’approche ServiceMesh - Définir les patterns de conception cible des applications comme Circuit Breaker, Canary Deployement, Blue/Green Deployement, A/B Testing, …. - Définir les patterns de conception d’architecture EDA et EventMesh ainsi que leurs déclinaisons opérationnelles o Recueillir les besoins et les critères permettant de faire le choix de la plateforme de gestion des évènements o Cadrer les principes et accompagner la mise en œuvre de la plateforme de gestion d’évènements - Cadrer les principes de recette et de validation de la nouvelle approche de développement qui sera choisie o Définir les principes de migration des anciens patterns de conception /développements vers la nouvelle approche - Former et accompagner le changement chez les parties prenantes - Conception de support de communication La prestation aura lieu principalement à Paris avec des déplacements réguliers sur le site du Mans et d’autres à prévoir de manière moins fréquente sur les sites de Niort, Levallois et Saran
Mission freelance
Data Engineer GCP Scala Spark
Principales responsabilités : - Collecte de données provenant de sources externes - Exploitation des capacités du Datalake (GCP) - Implémentation de la chaîne de traitement - Développement en conformité avec les normes architecturales établies - Élaboration et documentation des user stories - Création de scripts de déploiement - Priorisation de la résolution des anomalies - Contribution à la mise en place de la chaîne de livraison continue - Automatisation des tests fonctionnels - Encadrement et supervision des travaux des ingénieurs de données de l'équipe Environnement technique : GCP, Spark, Kafka, Scala
Offre d'emploi
Développeur java API/ Tests POSTMAN / Connaissances des paiements/ Anglais / +9ans d'XP
POSTE ET MISSIONS Nous recherchons un développeur Java senior pour rejoindre notre équipe technique. La mission nécessite une solide expérience dans le développement Java, une connaissance approfondie de Spring Boot, Tomcat et des API. Il faut avoir de l’expérience dans l’automatisation des tests avec les collections Postman. Les développements devront être réalisés dans le respect des bonnes pratiques de développement et des règles de sécurité. La maîtrise de l'initiation de paiement serait un atout. Description : • Réaliser les API donnant accès aux services internes en respectant les exigences de performance et de sécurité • Définir les nouvelles APIs en collaboration avec les équipes métiers et d’architecture • Développer et maintenir les APIs (basé sur les techno type Java, Maven, RAML, Anypoint) • Créer les tests unitaires / intégrations associés à chaque API • Déployer les APIs sur les différents environnements
Offre d'emploi
Tech Lead MLOPS (H/F)
• Mettre en place l’outillage Datascience et MLOPS et identifier les patterns et normes pour un usage par 40 caisses régionales • Évaluer et adopter de nouvelles technologies et méthodologies pour améliorer les processus MLOps et l'efficacité de l'équipe • Diriger l'élaboration et la mise en œuvre des pipelines / solutions MLOps pour l'entraînement, le déploiement et la surveillance des modèles ML • Superviser et encadrer une équipe technique, en fournissant une orientation technique, en fixant des objectifs et en assurant la montée en compétence des équipes internes • Participer à l'exploration continue (étude d'opportunité, cadrage) et aider à estimer l'effort et la valeur délivrée par les choix de designs éligibles pour favoriser la priorisation par le Product Owner et le Pôle Utilisateur (évolutivité, testabilité, déployabilité...) • Collaborer avec les parties prenantes internes pour comprendre les besoins métier et fournir des solutions ML efficaces et évolutives • Décliner le cadre d’Architecture d’Entreprise(processus, normes, patterns …) et contribuer à son évolution • Faciliter la prise de décision de manière collaborative sur la meilleure architecture (conformité, sécurité, risques...), avec un juste équilibre entre le respect de la cible d'entreprise et la réponse pragmatique au besoin • Maitrise les objectifs visés par le cadre d'Architecture d’Entreprise et décrit des solutions qui s'y conforment et sont implémentables sous forme incrémentale dans les sprints • Suivre et facilite la visibilité de la conformité des solutions de son périmètre par rapport à la stratégie d'entreprise • Responsable de la documentation produit(s) en veillant à sa pertinence, fiabilité et sa cohérence avec les cadres de référence de l'architecture (processus, guides, patterns...).
Mission freelance
INGENIEUR DE PRODUCTION / CHARGE D’INTEGRATION– AIX EN PROVENCE H/F
Quel poste proposons-nous ? Dans le cadre de notre développement en région PACA, nous recherchons un Ingénieur Chargé d’Applications / Intégrations (H/F) pour intervenir chez un client grand compte basé à 15 min d’Aix-en-Provence. Le collaborateur intégrera le service « Intégration et Exploitation des Applications » dans la Direction de l’Exploitation. Vos missions consisteront notamment à : Conception d’architecture technique en prenant en compte la résilience et redondance pour répondre à la disponibilité des services en production, Clusterisation Architecture technique orientée middleware et rédaction des DAT Déployer des applications en PREPRODUCTION et PRODUCTION au sein d’un périmètre sensible à haut niveau de sécurité. Concevoir et réaliser les changements complexes afin d'assurer la disponibilité et de la continuité de service du SI. Gérer des incidents N2 et ou N3. Assurer le maintien en conditions opérationnelles des applications. Veiller au maintien de la sécurité opérationnelle. Alimenter et faire respecter le référentiel de connaissance et de bonnes pratiques, MAJ du référentiel documentaire. Accessible : 2 jours de télétravail et 3 jours de présentiel – 1er moins intégration en présentiel
Mission freelance
Ingénieur Data (Spark / Scala) H/F
La Direction des Systèmes d’Information a pour missions de mettre au quotidien à disposition des 25 000 utilisateurs les données et les traitements nécessaires à leur activité, dans le respect des contrats de service; de garantir la sécurité et la pérennité des actifs informatiques du Groupe; d’accompagner le développement commercial du Groupe en France et à l’international ; d’élaborer de nouveaux systèmes d’information, de nouvelles infrastructures techniques et de maintenir les systèmes existants. Sur une architecture Big Data permettant de collecter les données de l’ensemble des Back Office dans un Datalake (cluster Hadoop), le projet consiste à exploiter ces données pour alimenter un Dataware communautaire stockée sur une base Exadata. Cette exploitation est réalisée par la conception de nouveaux traitements Spark/Scala manipulant les données raffinées du DataLake avec des règles métiers décisionnelles. Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : - Conception détaillée, fonctionnelle et technique. - Développements SPARK / SCALA - Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. - Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. - Packaging et déploiement en pre-production et production. - Optimisation des traitements afin de garantir la qualité de service standards du DWG. - Mise en œuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. - Mise en service et accompagnement au déploiement. - Suivi des environnements.
Offre d'emploi
Chef de projet MOE Big Data
Nous recherchons un professionnel pour piloter un projet stratégique chez notre client. Cette mission consiste à superviser la migration de notre plateforme Cloudera CDH vers CDP. En tant que responsable de ce projet, vous serez chargé de coordonner toutes les activités liées à cette transition, en veillant à ce que les objectifs stratégiques soient atteints dans les délais impartis. Votre rôle impliquera également la gestion des ressources, la communication avec les parties prenantes internes et externes, ainsi que l'évaluation et la gestion des risques. Cette opportunité offre un environnement stimulant et stratégique pour un professionnel motivé à contribuer au succès de notre organisation. Dans ce cadre : Il faut avoir une expérience très significative en pilotage de projet. Connaitre les aspects batch et tps réel sur les outils Big Data, particulièrement Spark, HBASE et KAFKA, et API REST. Être capable de challenger le fournisseur de la nouvelle plateforme. Big Data 4 SPARK 3 HBASE 3 KAFKA 3 API REST 3 Le projet comporte 3 jours de TT et se situe dans le 94
Offre d'emploi
Data Ingénieur Spark/Scala
Je recherche un Data Ingénieur Spark / Scala Séniorité : à partir de 5 ans d'expérience Localisation : Orléans Télétravail : 3 jours Secteur : Prévoyance / Assurance Il s'agit d'un CDI ! Contexte de recrutement : renforcement équipe Mission : Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : - Conception détaillée, fonctionnelle et technique. - Développements SPARK / SCALA - Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. - Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. - Packaging et déploiement en pre-production et production. - Optimisation des traitements afin de garantir la qualité de service standards du DWG. - Mise en oeuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. - Mise en service et accompagnement au déploiement. - Suivi des environnements. Le consultant devra travailler en étroite collaboration avec le Chef de Projet, responsable du lot et l'équipe de développement du Programme. Une connaissance d'Oracle est nécessaire
Mission freelance
Développeur SOLR Montpellier ou TT /ri
Développeur SOLR Montpellier ou TT ASAP Pour un client du secteur public, nous recherchons un développeur expérimenté en SOLR pour rejoindre notre équipe de développement dans le cadre d’une TMA Java/PHP. Le candidat retenu sera chargé de concevoir, développer et maintenir des solutions basées sur Apache SOLR, en collaboration avec d'autres membres de l'équipe technique qui développent sur Java Spring Boot, Vue.js et PHP. Responsabilités - Concevoir, développer et mettre en œuvre des solutions de recherche basées sur Apache SOLR. - Optimiser les performances des applications en utilisant les fonctionnalités avancées de SOLR. - Collaborer avec les équipes de développement pour garantir l'intégration optimale de SOLR dans les applications existantes. - Assurer la surveillance, la maintenance et le dépannage des déploiements SOLR. Exigences - Expérience avérée dans le développement avec Apache SOLR, y compris la configuration, l'optimisation des performances et la mise en œuvre de fonctionnalités avancées. - Connaissance approfondie des systèmes de recherche, des index et des moteurs de recherche. - Compétences en programmation dans des langages tels que Java, Python… - Capacité à travailler en équipe, à communiquer efficacement et à résoudre les problèmes de manière autonome. Avantages - Rejoindre une équipe dynamique et collaborative. - Possibilité de contribuer à des projets innovants et stimulants
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes