L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 864 résultats.
Mission freelance
247838/Intégrateur d'exploitation / Ingé de Production Niort
WorldWide People
Publiée le
Dynatrace
Python
3 mois
300-310 €
Niort, Nouvelle-Aquitaine
Intégrateur d'exploitation / Ingé de Production Niort La société devra fournir les prestations suivantes: integration des applications SI Maafvie Outils : Jenkins Outil de build et d’intégration des composants Jira outil de ticketing Artifactory gestion d’artefacts SVN (Git) Gestionnaire de sources contenant les fichiers et applications à déployer XLD (Digital AI) Déploie les livrables « .dar » sur tous les environnements XLR Orchestrateur des process d’intégration Connaissances : langage shell python (java) Objectifs et livrables La société devra fournir les prestations suivantes: integration des applications SI Maafvie Outils : Jenkins Outil de build et d’intégration des composants Jira outil de ticketing Artifactory gestion d’artefacts SVN (Git) Gestionnaire de sources contenant les fichiers et applications à déployer XLD (Digital AI) Déploie les livrables « .dar » sur tous les environnements XLR Orchestrateur des process d’intégration Connaissances : langage shell python (java) Compétences demandées Compétences Niveau de compétence DYNATRACE Confirmé Full Stack Python Confirmé Script Shell Confirmé JENKINS Confirmé Bmc Control-m Confirmé
Mission freelance
POT9011 - Un Développeur COBOL sur NIORT
Almatek
Publiée le
COBOL
6 mois
Niort, Nouvelle-Aquitaine
Almatek recherche pour l'un de ses clients, Un Développeur COBOL sur NIORT EXPERTISES ATTENDUES Compétences Techniques : -Maitrise COBOL -Outillage & méthodes : git, intégration continue, tests automatisés, agilté, qualité logicielle PRESTATIONS ATTENDUES -Concevoir les solutions en adéquation avec les besoins et contraintes exprimés par le client -Réaliser des développements selon : -Suivre la vie du logiciel en production (exploitation, supervision, maintenance corrective et évolutive...) LIVRABLES -Codes source et tests automatisés correspondant aux diverses fonctionnalités développées en adéquation avec les principes de qualité logicielle et d'industrialisation -Documentations techniques au juste nécessaire selon les standards Compétences techniques COBOL - Confirmé - Impératif Agilité - Confirmé - Souhaitable
Mission freelance
Lead DATA Analyst (Expertise retail &Ventes)
Atlas Connect
Publiée le
Agile Scrum
Azure
Big Data
2 ans
540-580 €
Paris, France
Profil recherché – Data Analyst Lead (Expert) Nous recherchons un Data Analyst Lead senior (10+ ans d’expérience) disposant d’une forte expertise en analyse et conception de solutions data, dans un environnement Grande Distribution . Le candidat devra : Posséder une expérience significative en Grande Distribution (impératif) Être capable de concevoir, challenger et sécuriser des solutions data complexes Avoir une solide maîtrise de la modélisation de données Être reconnu pour son leadership transverse Savoir accompagner et faire monter en compétence une équipe de Data Analysts Être à l’aise dans l’animation d’ateliers, de communautés et d’instances de gouvernance Comprendre les enjeux business retail et les usages métiers de la donnée 🛠 Compétences techniques attendues 🔴 Compétences impératives Connaissance opérationnelle de la Grande Distribution KPI : ventes, marge, stock, approvisionnement Pilotage de la performance magasin Logiques multienseignes Compréhension des usages métiers Analyse de données (niveau confirmé / expert) Modélisation de données (niveau confirmé / expert) Conception de solutions data SQL avancé 🟠 Compétences importantes Environnements Big Data (Databricks, Azure) Python / Scala Conception de modèles de données communs Structuration et alignement des KPI métiers Data Quality / Data Observability Documentation et bonnes pratiques de développement Expérience en méthodologie SAFe / Agile 🟢 Outils & Environnement technique SQL Databricks Microsoft Azure Python / Scala Power BI MicroStrategy PowerDesigner DataGalaxy SODA Jira 🎯 Compétences comportementales (soft skills) Leadership et posture de référent Capacité à challenger et arbitrer Excellente communication transverse (IT / Métiers) Esprit structurant et rigoureux Orientation solution et performance Capacité à vulgariser des sujets complexes
Mission freelance
Développeur(euse) Big Data
CAT-AMANIA
Publiée le
Apache Spark
Hadoop
Python
12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Description du poste : Dans le cadre de l'activité Big Data de notre client, nous recherchons un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour nous accompagner dans nos actions sur notre plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs.
Offre d'emploi
Expert Google Workspace Data & IA
Management Square
Publiée le
BigQuery
Google Workspace
IA Générative
1 an
47k-55k €
450-530 €
Nouvelle-Aquitaine, France
Expert Senior Google Workspace, Data & IA 1. Contexte de la mission Dans le cadre d’un programme de transformation digitale, nous recherchons un Expert Senior Google Workspace, Data & IA capable d'assurer l'interface entre l'expertise technique et les enjeux métiers sur l'ensemble de l'écosystème Google Workspace et ses extensions Data & IA . Le profil recherché est un consultant hybride à forte valeur ajoutée , capable d’administrer l’environnement collaboratif, d’analyser la donnée d’usage (BigQuery / Looker), de développer des solutions d’automatisation (AppSheet) et de porter la vision fonctionnelle (RSE, Adoption, IA) auprès des directions métiers. 2. Description des missions Volet Data & Analytics (Expertise Looker & BigQuery) Business Intelligence (Looker) Conception et maintenance de modèles LookML complexes Élaboration de dashboards de pilotage stratégique afin de mesurer l’adoption des outils et la performance des processus métiers Data Analysis (BigQuery) Exploitation avancée des données (logs d’audit Google Workspace, données métiers) via requêtage SQL optimisé Structuration des tables et gestion des coûts de stockage et de calcul Pilotage RSE & Usages Définition et mise en place d’indicateurs de suivi sur l’infobésité et l’hyperconnexion Contribution aux démarches de Qualité de Vie au Travail (QVT) et de sobriété numérique Volet IA Générative (Gemini) & Innovation Centre d’Expertise IA Contribution à la structuration du centre d’expertise IA Rôle de référent technique et fonctionnel sur la solution Gemini Acculturation & Animation Animation d’une communauté d’ambassadeurs IA Organisation de webinars , rédaction de guides de bonnes pratiques et identification de cas d’usage à forte valeur ajoutée Intégration Métier Déploiement de solutions IA opérationnelles : assistance rédactionnelle synthèse documentaire assistants virtuels adaptés aux besoins métiers Volet Google Workspace : Technique & Fonctionnel Expertise Admin & Sécurité Administration avancée de la console Google Workspace Audit et optimisation des configurations de sécurité (DLP, Context-Aware Access) en collaboration avec les équipes cybersécurité Automatisation des Processus Développement d’applications métiers via AppSheet (Low-code) Développement de Google Apps Script pour automatiser les tâches manuelles et remplacer des fichiers Excel complexes Transition Office vers Google Accompagnement technique et méthodologique pour la migration des outils Microsoft (Excel / VBA) vers l’écosystème Google (Sheets / Apps Script / BigQuery) Posture AMOA / PO Assistance au Product Owner dans : la définition de la roadmap produit la rédaction de User Stories la conduite du changement
Mission freelance
Data Engineer Azure Python
Cherry Pick
Publiée le
Azure
Python
SQL
12 mois
600 €
Paris, France
Le Datahub est la plateforme centrale du système d’information d’un acteur majeur de l'épargne. Il centralise, normalise et expose l’ensemble des données pour des usages métiers critiques : calcul des commissions, génération de documents clients, finance, marketing et écosystème partenaires. En tant que Data Engineer (Renfort) , vous rejoignez une équipe de 3 personnes pour accélérer le développement, l’industrialisation et la fiabilisation des pipelines de données dans un environnement en pleine transformation. 🛠️ Stack Technique Cloud & Stockage : Azure (Azure SQL, Cosmos DB). Orchestration & ETL : Azure Data Factory (ADF). Langages : SQL (Expertise requise), Python (Azure Functions). DevOps / IaC : Terraform, Azure DevOps, SonarCloud, Snyk. Évolution : Migration vers Airflow prévue prochainement. 🎯 Vos Missions Développement de Pipelines : Concevoir, maintenir et optimiser les flux d'intégration (ingestion, transformation, normalisation) via Azure Data Factory. Expertise Data : Réaliser des transformations et agrégations de données complexes en SQL, avec un focus sur la performance et la qualité. Industrialisation : Automatiser les processus via Python (Azure Functions) et gérer l'infrastructure via Terraform. Collaboration Métier : Travailler en direct avec les équipes Finance, Marketing et Relation Client pour traduire leurs besoins en solutions techniques robustes. Qualité & Sécurité : Garantir la fiabilité des données et la propreté du code (CI/CD, tests, revues de code). 👤 Profil Recherché Expérience : Data Engineer confirmé (3 à 5 ans d'expérience minimum). Maîtrise SQL : Capacité à gérer des traitements de données volumineux et complexes. Expertise Azure : Expérience solide sur ADF et l'écosystème Cloud Microsoft. Culture Dev : Bonne connaissance de Python et des principes DevOps (Git, CI/CD, Terraform). Soft Skills : Force de proposition, capacité d’adaptation et aisance pour échanger avec des interlocuteurs non techniques. Langue : Anglais professionnel (un vrai plus pour l'environnement international). 💼 Modalités Pratiques Démarrage : Sous 1 mois (disponibilité immédiate ou courte). Durée : Visibilité sur l'année 2026. Lieu : Paris (Locaux haut de gamme). Rythme : 3 jours de présence sur site / 2 jours de télétravail (pas de full remote).
Mission freelance
DATA ANALYST
Geniem
Publiée le
Python
6 mois
Lille, Hauts-de-France
Data Analyste Le domaine Search& et Publication recherche un/une data analyst pour mener à bien des projets de data analyse et de dashboarding Objectif global du projet : Accompagner le métier Search& Publication en réalisant des études statistiques, des explorations de données et en construction des Dashboards Contrainte forte du projet GCP + PowerBI + Connaissance Web Les livrables sont Analyses statistiques Compétences techniques : Python, SQL - Confirmé - Impératif Dashboards (Power BI + Data Studio) - Confirmé - Impératif Connaissance données Web - Confirmé - Impératif Google Cloud Platform - Confirmé - Impératif Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif) Mission : - accompagner et challenger le métier - être force de proposition sur des solutions adéquats et innovantes pour répondre aux problématiques métiers - réaliser des analyses statistiques préparatoires - réaliser des dashboards clairs et synthétiques - être pédagogue & autonome - communiquer, partager avec les autres interlocuteurs de la direction IT (data scientists, chef de projets et data ingénieurs) - savoir communiquer & restituer des résultats concrets SA MISSION : Mettre en œuvre des outils informatiques, des techniques et des méthodes statistiques pour permettre d’organiser, synthétiser et traduire efficacement des données. SES LIVRABLES : - Modèle et structuration des données - Algorithme / Méthode statistique
Mission freelance
Expert design système Data viz (H/F) - IDF + Remote
Mindquest
Publiée le
Azure
Microsoft Power BI
3 mois
330-490 €
Roissy-en-France, Île-de-France
Mission Cadrage & compréhension des besoins Recueillir, analyser et qualifier les besoins métiers et enjeux de pilotage Identifier les indicateurs clés (KPI) nécessaires à la prise de décision Formaliser la définition fonctionnelle et construire un dictionnaire de KPI Conception & Design DataViz Traduire les besoins en concepts de visualisation et design Définir : Scénarisation des KPI Hiérarchisation visuelle (typographie, graphiques…) Filtres interactifs et expériences utilisateur Concevoir le “storytelling” des dashboards (messages clés, parcours utilisateur) Produire maquettes, reportings et outils de pilotage Design System & standardisation Faire évoluer, enrichir et standardiser le Design System DataViz Structurer : Les éléments de design (couleurs, pictogrammes, composants visuels…) Les composants Power BI (templates, visuels, dashboards) Maintenir et piloter les bibliothèques de design (Figma & Power BI) Data & automatisation Participer à la préparation des données Mettre en place des logiques d’automatisation des reportings Collaborer avec les équipes data (Azure, Databricks…) Pilotage & delivery Piloter les projets de conception et garantir la qualité des livrables Rédiger les cahiers des charges et spécifications fonctionnelles / techniques Assurer le suivi des projets (planning, risques, priorisation…) Être garant de la satisfaction métier
Mission freelance
CP E-Deal – Modules Sales (PM PP)
Byrongroup
Publiée le
CRM
ETL (Extract-transform-load)
Marketing
1 an
400-550 €
Île-de-France, France
Missions principales : • Paramétrage général et avancé du progiciel selon les besoins clients. • Réalisation de développements techniques spécifiques : éditions, Dataimports, requêtes sur SQL Oracle. • Maintenance corrective et évolutive (gestion des tickets, suivi des anomalies, coordination avec les équipes éditeur). • Participation aux projets clients : déploiements, optimisations, évolutions fonctionnelles. Selon votre séniorité : • Missions de maintenance et support (3 à 5 ans d’expérience). • Missions d’expertise, de formation et d’accompagnement stratégique (6 à 10 ans d’expérience).
Offre d'emploi
Statisticien - Data Scientist - Model Risk Management & Validation Indépendante des Modèles H/F
█ █ █ █ █ █ █
Publiée le
Le Relecq-Kerhuon, Bretagne
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
DBA Production SQL Server (F/H)
Blue Soft
Publiée le
50k-60k €
Rueil-Malmaison, Île-de-France
- Expérience attendue : 7 ans d'expérience minimum. - Localisation : Hauts-de-Seine (92) - 2 jours de TT par semaine après une période d'intégration. - Disponibilité : ASAP. - Anglais : technique requis - Compétences obligatoire : SQL Server, N3 confirmé voire très bon N2. Contexte : Dans un environnement technique structuré et en constante évolution, nous recherchons un DBA SQL Server pour renforcer une équipe dédiée à la gestion et à la performance des bases de données en production. Vous interviendrez sur des systèmes stratégiques nécessitant fiabilité et expertise technique. Missions : o Administrer et maintenir les bases de données SQL Server en production o Assurer la disponibilité et les performances des systèmes o Gérer les incidents et demandes de niveau 2/3 o Optimiser les bases de données (requêtes, index, performance) o Participer aux opérations de maintenance et d'amélioration continue Environnement technique : o Microsoft SQL Server
Mission freelance
Manager de transition Data Factory (H/F) - 94
Mindquest
Publiée le
Microsoft Power BI
Microsoft Project
3 mois
Val-de-Marne, France
Dans ce cadre, vos principales missions seront les suivantes : Gouvernance: - Concevoir et porter les dossiers d’investissement des projets - Rédiger des cahiers des charges techniques et analyser les offres techniques dans le cadre des consultations fournisseurs - Piloter les prestations externes - Garantir la cohérence et l’alignement des feuilles de route stratégiques et opérationnelles, en assurant une mise en œuvre coordonnée avec les échéances fixées - Collaborer avec les différentes équipes afin d’assurer la cohérence des actions et des objectifs - Soutenir les instances de gouvernance en préparant les éléments de reporting nécessaires - Coordonner et faciliter le partage d’informations entre les équipes et l’ensemble des parties prenantes - Participer à l’amélioration continue des processus internes afin d’optimiser l’efficacité opérationnelle Pilotage du portefeuille de programmes: - Participer à l’identification et au suivi des projets du périmètre en veillant à leur alignement avec les objectifs stratégiques -Assurer le pilotage du portefeuille de projets via un suivi structuré visant à garantir la réussite des initiatives, en coordination avec les équipes métiers -Mettre à jour les outils de suivi du portefeuille de projets -Produire les reportings et les tableaux de bord de pilotage -Participer aux instances de coordination et de suivi des projets -Assister le responsable du département dans certaines missions de support managérial selon les besoins -Contribuer à l’organisation d’événements professionnels (planification, production de contenus, logistique)
Mission freelance
Développeur Scripting (Python / Shell) – Automatisation & Data – Secteur Bancaire (H/F)
CELAD
Publiée le
API
CI/CD
Python
12 mois
400-460 €
Paris, France
Envie d’un nouveau challenge… CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Développeur orienté scripting, automatisation & data pour intervenir chez l’un de nos clients du secteur bancaire . Dans un contexte de transformation, de rationalisation du SI et de pilotage de la performance IT, vous rejoignez une équipe transverse et intervenez sur des sujets à forte valeur ajoutée : automatisation, exploitation de données, conformité, industrialisation et pilotage applicatif. 🎯 Vos missions 🔹 Automatisation & exploitation de la donnée Conception et développement de scripts d’automatisation Collecte, nettoyage, consolidation et historisation de données issues de multiples outils Analyse du planifié vs réalisé et identification des écarts Mise en place de snapshots périodiques et production d’indicateurs de pilotage 🔹 APIs, logs & industrialisation Conception et développement d’APIs (exposition / consommation) Mise en place d’une base de logs centralisée Automatisation des flux de remontée d’information Industrialisation et fiabilisation des traitements 🔹 Conformité & qualité du SI Extraction et exploitation de données issues d’outils d’industrialisation et CI/CD Analyse des normes, détection d’anomalies et d’écarts Construction d’indicateurs de conformité et maturité 🔹 Référentiels & pilotage projet Contribution à la structuration du référentiel projets Études autour des APIs d’outils de gestion de projets Analyse des points de blocage techniques et organisationnels
Offre d'emploi
INGENIEUR DÉVELOPPEMENT PORTAIL IA
GROUPE ALLIANCE
Publiée le
Docker
Kubernetes
LangChain
72k-79k €
Paris, France
ACCROCHE SI TU TROUVES QUE JARVIS MANQUE DE PERSONNALISATION, CETTE ANNONCE EST FAITE POUR TOI ... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe passionnée par l’intelligence artificielle Concevoir des solutions innovantes et intelligentes Repousser les limites de l'automatisation et du machine learning Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur Protection Sociale, tu participeras à la conception et la mise en oeuvre des améliorations à apporter au portail IA du client afin de répondre aux besoins de ses utlilisateurs.A ce titre tu seras chargé, en lien avec le chef de projet et l'architecte IA, de mettre en oeuvre les pistes d'améliorations et de les documenter afin de permettre ensuite leur maintenance par les développeurs de l'équipe.Tu seras amené à proposer des pistes techniques ou fonctionnelles d'améliorations, ou a les mettre en oeuvre, suite à des dysfonctionnements ou des manques remontés par les utilisateurs.Tu seras aussi en charge, en lien avec le chef de projet, de versionner la prise en compte des modifications et de veiller au bon déploiement et à la bonne recevabilité par les utilisateurs du portail IA.Cette prestation pourra impliquer de collaborer avec d'autres compétences d’experts techniques ou fonctionnels, en dehors de l'équipe, en fonction des thématiques traitées Données, tu analyseras Modèles d’IA, tu entraîneras Algorithmes performants, tu développeras Les biais et les dérives, tu limiteras Les meilleures pratiques en IA, tu appliqueras Les performances, tu optimiseras Ton expertise, tu partageras Aux évolutions technologiques, tu contribueras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de 10ans minimum Expert(e) en Microsoft AZURE AI Habile avec les outils SFEIR RAISE (RAG/GenAI), Visual Studio Code avec Github COPILOT, MS OFFICE Copilot, Python, Langchain, Docker + Kubernetes, LiteLLM + LLM AI Foundry, React, Typescript, TanStack, Microsoft AZURE AI Foundry, LangGraph, RAGAS, LangFuse, FastAPI + Celery/Redis, Serveurs MCP, Pipelines CI/CD (GitHub/Azure DevOps), Docker + Terraform, Microsoft AZURE API Management, Microsoft AZURE AI Foundry AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
Offre d'emploi
Analyste Production Informatique DATA F/H
Experis France
Publiée le
40k-48k €
Niort, Nouvelle-Aquitaine
Analyste Production Informatique DATA F/H - Niort 🎯 Ingénieur / Analyste Production Informatique - Data / IA (F/H) 📍 Niort 📝 CDI - Expérience confirmée 🎯 Votre rôle Vous intervenez aux côtés du Responsable de Projet de Production pour garantir la bonne mise en œuvre des projets techniques et fonctionnels. Vous prenez en charge la pré-production, la mise en exploitation et le suivi opérationnel dans un environnement multiplateforme et orienté Data / IA. 🚀 Vos principales missions 📌 1. Pré-production & Projets Réception et analyse des dossiers d'homologation. Conception des chaînes de traitements (automatisation, ordonnancement…). Développement des procédures d'exploitation. Suivi et validation des tests d'homologation. Rédaction des dossiers d'exploitation. Livraison et intégration des applications en environnements pré-production / production. Coordination avec les équipes développement, support, exploitation, planning… Accompagnement du changement et transfert de compétences. Suivi des premières mises en exploitation et de la VSR (Vérification de Service Régulier). 📌 2. Exploitation & Maintien en conditions opérationnelles Supervision du bon fonctionnement des outils, traitements, systèmes et infrastructures techniques. Analyse des performances, mise en œuvre d'actions d'amélioration continue. Définition, documentation et contrôle des règles d'utilisation selon les standards internes. Contribution au dispositif Qualité. Pilotage des actions d'évolution pour optimiser performance, pérennité et sécurité. Validation de l'installation et de l'intégration des nouveaux outils et traitements. Coordination et réalisation des opérations de maintenance et de changements. Gestion des incidents et problèmes (diagnostic → remise en service). Gestion des droits d'accès. Application des normes de sécurité du SI. Veille technologique sur votre périmètre.
Mission freelance
Développeur React Native / Data Engineer F/H
SMARTPOINT
Publiée le
Databricks
React Native
Spark Streaming
12 mois
100-450 €
Île-de-France, France
Dans le cadre de notre besoin, nous recherchons un profil hybride associant : Une expertise confirmée en développement mobile React Native, et une compétence en Data Engineering sur Azure / Databricks. La mission repose principalement sur la maintenance évolutive et corrective d’une application mobile développée en React Native. En fonction de la charge de travail sur la partie front, le consultant pourra également intervenir sur les traitements back/data, notamment sur les pipelines et notebooks Databricks sur le cloud Azure. Informations complémentaires : - Démarrage souhaité : ASAP - Conscients que ce type de profil hybride est rare, nous vous remercions de ne proposer que des candidats répondant strictement aux critères décrits dans la fiche de mission. - 3 jours obligatoire sur site ANALYSE : Participe à l'analyse fonctionnelle détaillée des besoins utilisateurs et peut être sollicité pour des ateliers de définition des spécifications générales Étudie les opportunités et la faisabilité technologique de l'application, réalise l'analyse technique, l'étude détaillée et contribue à l'estimation des charges CONCEPTION ET DÉVELOPPEMENT : Contribue au design du logiciel et des frameworks utilisés dans le cadre du projet Adapte et applique les paramètres techniques des progiciels ou des middlewares Réalise le prototypage Analyse et développe les composants en utilisant les langages appropriés Participe à la structuration des Bases de Données Participe à la revue croisée des développements de ses pairs Initialise le dossier d'exploitation Assemble les composants unitaires dans un package applicatif cohérent destiné au déploiement de la solution et l'intègre à la gestion de configuration Documente les applications pour les développements ultérieurs et la Mise en Production (MEP) Harmonise et industrialise l'ensemble des composants et applications Utilise les composants logiciels réutilisables et met à jour la nomenclature RECETTE UNITAIRE ET TESTS D'INTÉGRATION : Responsable des tests unitaires : élaboration des jeux d'essais et réalisation Teste, identifie et traite les dysfonctionnements éventuels du logiciel développé Vérifie la conformité de l'ouvrage avec la demande formulée Contribue à la préparation et à la réalisation des tests d'intégration Analyse les résultats et rédige le rapport de tests MAINTENANCE : Réalise les développements nécessaires à la maintenance corrective et évolutive Participe à l'analyse et à la résolution des incidents de production Compétences techniques : React Native - Expert - Impératif Databricks - Confirmé - Impératif Spark - Confirmé - Impératif SQL - Confirmé - Impératif
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2864 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois