Trouvez votre prochaine offre d’emploi ou de mission freelance Développeur·euse autre langage (R, Cobol, Perl, VBA, Ruby, Shell...) à Lyon

Le développement d'un site web dynamique en langage Perl, Ruby, Shell.. conception d'un framework de développement et de CMS avec le même langage, traitement et administration d'une base de données avec Perl, écriture de scripts CGI sur serveur web avec Perl, conception d'un programme de manipulation et de traitement de textes, développement d'une interface d'utilisateur ergonomique sous Perl, conception d'un logiciel de monitoring réseau ou système sous Perl, etc. Le langage Perl est un langage à typage faible, comparé à d'autres langages tels que le langage C. De plus, l'allocation de mémoire est toujours prise en charge par l'interpréteur. On note également un dimensionnement automatique des expressions très intéressant.
Informations sur la rémunération de la fonction Développeur·euse autre langage (R, Cobol, Perl, VBA, Ruby, Shell...).

Votre recherche renvoie 93 résultats.
CDI
Freelance
CDD

Offre d'emploi
Développeur Big Data : Python, SQL, Shell, Spark expérimenté

KEONI CONSULTING
Publiée le
JIRA
Python
SQL

18 mois
20k-60k €
100-500 €
Lyon, Auvergne-Rhône-Alpes
Contexte Le client dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans nos actions sur la plateforme Cloudera Hadoop. L'objectif de la mission est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs MISSIONS Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gourvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. Dans le même ordre d'idée, quelques attendus : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs - Capacité à expliquer simplement le sujet, à communiquer vers des interlocuteurs type développeur, bureau d'étude, qualifieur et ""clients"" (Groupes de protection sociale). La connaissance de Power BI et de SAS sont des plus." Livrables attendus Code source documenté Plan de tests / fiches de test Bilan Bordereau de livraison Manuel d’installation Dossier d’exploitation JIRA documentée" Environnement technique - technologique "• Cloudera Hadoop • Hive, impala • Python • SQL • Shell • Spark • VBA • GIT • Jupyter • Linux • JIRA" Compétences techniques Connaisance Cloudera Hadoop, Hive, Impala Développement Python Requêtage SQL Développement Shell Développement Spark (Scala) Utilisation de GIT Agilité (méthodes Kanban et/ou Scrum) Compétence liée à l'environnement Connaissance de l'écosystème de la protection sociale (Retraite Complémentaire idéalement)
Freelance
CDI
CDD

Offre d'emploi
Développeur  Data Python SQL Shell Spark

KEONI CONSULTING
Publiée le
JIRA
Jupyter Notebook
Python

18 mois
20k-60k €
100-500 €
Lyon, Auvergne-Rhône-Alpes
CONTEXTE : Le client dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour nous accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la mission est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs MISSIONS Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gourvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. Dans le même ordre d'idée, quelques attendus : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs Livrables attendus "Code source documenté Plan de tests / fiches de test Bilan Bordereau de livraison Manuel d’installation Dossier d’exploitation JIRA documentée" Environnement technique - technologique "• Cloudera Hadoop • Hive, impala • Python • SQL • Shell • Spark • VBA • GIT • Jupyter • Linux • JIRA" Compétences techniques Connaisance Cloudera Hadoop, Hive, Impala Développement Python Requêtage SQL Développement Shell Développement Spark (Scala) Utilisation de GIT Agilité (méthodes Kanban et/ou Scrum) Compétence liée à l'environnement Connaissance de l'écosystème de la protection sociale
Freelance

Mission freelance
Développeur Big Data

Codezys
Publiée le
JIRA
Linux
Python

24 mois
330-400 €
Lyon, Auvergne-Rhône-Alpes
Organisation Dans le cadre de ses activités liées au traitement de données volumineuses, une organisation recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans la gestion d'une plateforme Hadoop. Objectif de la mission Réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, notamment la mise en place d'extractions et l'accompagnement des utilisateurs. Description de la mission Le candidat, rattaché au responsable en charge du traitement de données volumineuses, sera principalement chargé de : Prendre en charge l'évolution des flux de données et reprendre les développements existants pour leur alimentation, en faisant évoluer ceux-ci selon les besoins. (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) Définir la spécification technique des tâches, fournir des requêtes de référence, réaliser des revues de code, et accompagner d’éventuels alternants ou stagiaires. Mettre en place des processus d'extraction à partir des données. Assurer le support de niveau 2. Faire respecter les consignes d’utilisation auprès des utilisateurs. Garantir le respect des délais de livraison dans un environnement exigeant. Contribuer à la maintenabilité, la performance et l’exploitabilité de la plateforme. Il veillera également à respecter l’utilisation des modèles référencés ou leur évolution, en collaboration avec la Direction Technique et la Gouvernance des Données. Le profil doit posséder des compétences avérées en communication, diplomatie, capacité d’intégration, partage de connaissances, documentation, et accompagnement des utilisateurs.
Freelance

Mission freelance
Data Engineer Sénior (Hadoop / Python)

Les Filles et les Garçons de la Tech
Publiée le
Apache Spark
Hadoop
Python

12 mois
150-650 €
Lyon, Auvergne-Rhône-Alpes
Au sein du pôle Big Data d'un grand groupe, l'objectif principal de ce poste est de réaliser et de maintenir les développements nécessaires à l'alimentation du Datalake sur une plateforme Cloudera Hadoop, de mettre en place des extractions de données et d'accompagner les utilisateurs. Rattaché(e) au responsable Big Data, vous évoluerez dans un contexte de production à fortes attentes où la tenue des délais de livraison et le pilotage opérationnel sont primordiaux. Vos principales missions seront les suivantes : Développement et intégration : Prendre en charge les évolutions des données à intégrer et reprendre les développements existants pour l'alimentation du Datalake. Vous développerez également des extractions avec un niveau d'expertise en SQL et créerez des scripts Shell avancés pour l'automatisation. Expertise technique et mentorat : Spécifier techniquement les tâches, fournir des requêtes de référence, effectuer des revues de code et accompagner les collaborateurs juniors, stagiaires ou alternants. Support et accompagnement : Assurer le support de niveau 2, faire appliquer les bonnes pratiques et consignes aux utilisateurs, et rédiger la documentation requise (guides, description de processus). Optimisation et maintenance : Garantir la maintenabilité, les performances et l'exploitabilité de la plateforme en respectant l'utilisation des modèles référencés par la Gouvernance de la Donnée. Vous optimiserez les traitements de la plateforme et ceux des utilisateurs, et mènerez des investigations (reverse engineering) dans une architecture héritée complexe
Freelance
CDI

Offre d'emploi
Développeur Big Data sur Lyon

EterniTech
Publiée le
Cloudera
Hadoop
SQL

3 ans
Lyon, Auvergne-Rhône-Alpes
Je recherche pour un de mes client un Développeur Big Data sur Lyon CONTEXTE DE LA MISSION Le client, dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs. DESCRIPTION DE LA MISSION Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gouvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. LIVRABLES ATTENDUS ET ENVIRONNEMENT TECHNIQUE Les principales missions confiées seront les suivantes : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs - Capacité à expliquer simplement le sujet, à communiquer vers des interlocuteurs type développeur, bureau d'étude, qualifieur et "clients" (Groupes de protection sociale). La connaissance de Power BI et SAS sont des plus. Exemples de livrables attendus : - Code source documenté - Plan de tests / fiches de test - Bilan - Bordereau de livraison - Manuel d’installation - Dossier d’exploitation - JIRA documentée Environnement technique : - Hadoopa Cloudera - Hive - Impala - Python - Shell - Spark - Linux - SQL - VBA - Git - Jupyter Des connaissances de l’écosystème de la protection sociale sont les bienvenues (retraite complémentaire idéalement).
Freelance

Mission freelance
DevOps

Codezys
Publiée le
Ansible
Docker
Git

12 mois
350-420 €
Lyon, Auvergne-Rhône-Alpes
Présence sur site requise 3 jours par semaine. Au sein du pôle Système d'Information Chaînes Communicantes de la Département des Systèmes d'Information , l'équipe rassemble des briques applicatives et data essentielles à la supervision, la résilience, l’intelligence du réseau électrique. En intégrant des outils de visualisation de crise, des capteurs Internet des Objets (IoT) , des dataproducts, un socle DevOps mutualisé, l'équipe incarne une approche unifiée et opérationnelle de la donnée réseau. IndusML est une équipe DevOps rattachée à une unité dédiée, œuvrant pour un département spécifique. Elle est en charge de la mise en place et du maintien en condition opérationnelle des éléments d’infrastructure et outillage pour les DataScientists et développeurs de ce département. Le projet met à disposition des équipes Data une plateforme de travail structurée autour de 3 axes : des Environnements de Développement Intégrés (IDE) complets pour développer, s'interfacer avec les partenaires du projet et explorer la donnée dans les meilleures conditions des environnements applicatifs sécurisés et scalables pour permettre aux éléments produits par les utilisateurs d'atteindre un haut niveau de performance et de résilience de l'outillage CI/CD clé en main pour uniformiser et fiabiliser ce processus Objectifs et livrables Activité principale : Construire et faire évoluer les outils nécessaires au déploiement continu et automatisé des applications web et traitements de données produits par les analystes de données / scientifiques de données Assurer l’évolution des éléments d’infrastructure, middleware et outillage en fonction des contraintes d’obsolescence, de sécurité et de fonctionnalité Echanger avec l’ensemble des acteurs du Système d'Information (Développeurs, Sécurité, Architectes, Exploitants, etc.) pour s'assurer de la bonne adéquation de la solution avec le cadre d'entreprise Créer et maintenir la documentation qui doit accompagner les changements mis en place Participer aux cérémonies d’équipe Activité secondaire : Étudier l'intégration vers l’analyse de données future en lien avec le pôle Système d'Information DATA (cloud / on-premise) pour assurer aux équipes analytiques une continuité d'activité dans un nouveau contexte Système d'Information .
Freelance

Mission freelance
Développeur Big Data

Codezys
Publiée le
Big Data
Cloudera
Data Lake

12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Le client, dans le cadre du développement et de la maintenance de sa plateforme Big Data, recherche un Développeur Big Data expérimenté (H/F) avec au moins 5 ans d’expérience en environnement Data. La mission se déroule au sein de l’équipe Big Data, chargée de l’alimentation, de l’évolution et de l’optimisation du Data Lake sous Cloudera Hadoop. L’objectif principal est de concevoir, faire évoluer et maintenir les traitements d’alimentation pour assurer la qualité, la performance et la maintenabilité des solutions. Le consultant intervient dans un contexte de production exigeant, avec de forts enjeux de fiabilité et de respect des délais. Missions principales : Développement & évolution du Data Lake : Gérer les évolutions des flux et des données à intégrer Faire évoluer les développements existants d’alimentation Maintenir les traitements d’ingestion et de transformation Concevoir des extractions de données pour répondre aux besoins métiers Stack technique : Cloudera Hadoop, Hive, Impala, Spark, Python, SQL, Shell, Linux, VBA, Jupyter Expertise technique & structuration : Rédaction des spécifications techniques Fourniture de requêtes SQL de référence Revue de code Structuration et pilotage via JIRA Documentation des processus et accompagnement des utilisateurs Encadrement de profils juniors (alternants, stagiaires) Performance & optimisation : Optimiser les traitements et requêtes Améliorer la performance et l’exploitabilité Contribuer à la maintenabilité globale Réaliser du reverse engineering dans une architecture héritée complexe Support & accompagnement : Assurer le support de niveau 2 Faire respecter les bonnes pratiques Communiquer clairement avec différents interlocuteurs (développeurs, utilisateurs, clients) Gouvernance & conformité : Veiller au respect des modèles de données Collaborer avec la Direction Technique et la Gouvernance de la Donnée pour faire évoluer les standards
CDI

Offre d'emploi
Développeur Big Data Expérimenté (H/F)

CITECH
Publiée le
Cloudera
Git
Hadoop

50k-60k €
Lyon, Auvergne-Rhône-Alpes
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet innovant, nous avons LE poste pour vous ! Nous recherchons en effet un(e) Développeur Big Data Expérimenté (H/F) 🚀 ☘️ Votre mission est pour un client connu du secteur de la retraite et prévoyance. L’objectif de la mission est dans le cadre de la réalisation et la maintenance de développements nécessaires à l'alimentation d’une plateforme, ainsi que la mise en place d'extractions de données et l'accompagnement des utilisateurs finaux. Description du poste 👉 Vous aurez les missions suivantes : 👈 🔸 Développement et maintenance : Assurer l'alimentation du Datalake et faire évoluer les flux en fonction des besoins métiers. 🔸 Conception et architecture : Mettre en place des extractions de données et contribuer à garantir la tenue de la plateforme en environnement opérationnel. 🔸 Support et expertise : Assurer le support de niveau 2, apporter une expertise technique sur l'écosystème Hadoop et réaliser des revues de code. 🔸 Coordination : Collaborer avec la Direction Technique Informatique et la Gouvernance de la Donnée pour le respect et l'évolution des modèles référencés. 🔸 Documentation : Rédiger la documentation technique (spécifications, dossiers d'exploitation, manuels d'installation) et les bilans de tests.
Freelance

Mission freelance
Ingénieur d’étude Migration de données (Linux / MVS – Cobol)

Signe +
Publiée le
Multiple Virtual Storage (MVS)

12 mois
300-350 €
Lyon, Auvergne-Rhône-Alpes
Contexte Dans le cadre de projets de migration de données vers de nouveaux systèmes d’information, l’ingénieur d’étude intervient sur les phases de spécification, développement, tests et recette. La mission s’inscrit dans un environnement agile orienté migration et modernisation de SI, avec utilisation d’outils internes permettant d’industrialiser les transformations de données. Objectif de la mission Contribuer à la migration de données d’un système source vers un système cible en assurant : l’analyse fonctionnelle des données la génération et la validation du code de transformation la mise en place des tests la communication avec les équipes métiers Missions principales Spécifications et analyse Rédiger les spécifications fonctionnelles des données à migrer Animer des ateliers avec les équipes métiers client Identifier les règles de transformation, fusion, éclatement ou filtrage des données Étudier les structures de fichiers source et cible Développement et transformation Utiliser l’outil interne pour générer du code en pseudo Cobol Implémenter les règles de migration dans l’outil Tester et corriger le code généré Participer aux phases de recette Tests et validation Définir la stratégie de tests Construire les cas de tests et jeux d’essai Suivre les anomalies et assurer les corrections Présenter les résultats à la MOA / équipes métiers Organisation projet Travailler en mode agile et itératif Gérer plusieurs sujets en parallèle Reporter sur l’avancement et les points de blocage Être force de proposition sur les optimisations Compétences obligatoires Maîtrise de Cobol Connaissance Linux ou environnement MVS Bonne compréhension des structures de fichiers (fichiers plats, encodage EBCDIC / ASCII) Expérience en migration ou transformation de données Première expérience en Banque ou Assurance de personnes (santé, prévoyance) Compétences appréciées Connaissance de l’environnement MVS Shell Linux PostgreSQL Méthodes agiles Animation d’ateliers fonctionnels Profil recherché Formation Bac+5 informatique ou scientifique Bonne capacité d’analyse fonctionnelle Autonomie rapide Bon relationnel client Capacité rédactionnelle claire et synthétique Esprit d’équipe et curiosité technique
Freelance

Mission freelance
Ingénieur DevOps (H/F)

Insitoo Freelances
Publiée le
Administration linux
Ansible
Gitlab

2 ans
420-480 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Ingénieur DevOps (H/F) à Lyon, France. Contexte : Une équipe DevOps en charge de la mise en place et du maintien en condition opérationnelle des éléments d’infrastructure et outillage pour les Data Scientists et développeurs du département. Le projet met à disposition des équipes Data une plateforme de travail structurée autour de 3 axes : - des IDE complets pour développer, s'interfacer avec les partenaires du projet et explorer la donnée dans les meilleures conditions - des environnements applicatifs sécurisés et scalables pour permettre aux éléments produits par les utilisateurs d'atteindre un haut niveau de performance et de résilience -de l'outillage CI/CD clé en main pour uniformiser et fiabiliser ce processus. Les missions attendues par le Ingénieur DevOps (H/F) : Activité principale Construire et faire évoluer les outils nécessaires au déploiement continu et automatisé des applications web et traitements de données produits par les data analystes / data scientists Assurer l’évolution des éléments d’infrastructure, middleware et outillage en fonction des contraintes d’obsolescence, de sécurité et de fonctionnalité Echanger avec l’ensemble des acteurs du SI (Développeurs, Sécurité, Architectes, Exploitants, etc…) pour s'assurer de la bonne adéquation de la solution avec le cadre d'entreprise Créer et maintenir la documentation qui doit accompagner les changements mis en place Participation aux cérémonies d’équipe Activité secondaire Etudier l'accostage vers la data analyse de demain en lien avec le pôle SI DATA (cloud / on prime) pour assurer aux équipes analytiques d'IML une continuité d'activité dans une nouveau contexte DSI Stack technique de l'équipe · Système : Infrastructure 100% linux : RedHat, CentOS, Alpine · Middleware : Apache, Proftpd, JupyterLab, node, Shiny-server, VSCode server · Scripting/dev : Shell, Python, R, groovy, yaml, HCL (Terraform) · Bases de données : PostGreSQL (offre PGaaS notamment), espace produit sur B4ALL · CI/CD : Git, GitLab CI, Ansible, Jenkins, HELM, Artifactory, Vault, Terraform · Conteneurisation : Docker, Kubernetes, Podman · Métrologie : Grafana · Ordonnancement : Control-M / Airflow · Gestion de projet : Jira, Confluence
Freelance

Mission freelance
Développeur(euse) Big Data

CAT-AMANIA
Publiée le
Apache Spark
Hadoop
Python

12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Description du poste : Dans le cadre de l'activité Big Data de notre client, nous recherchons un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour nous accompagner dans nos actions sur notre plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs.
Freelance

Mission freelance
247983/Analyste Technique Environnement Mainframe COBOL DB2 Lyon

WorldWide People
Publiée le
COBOL
IBM Db2

12 mois
Lyon, Auvergne-Rhône-Alpes
Analyste Technique Environnement Mainframe COBOL DB2 Lyon Contexte de la mission Pour un de nos clients grand compte dans le domaine de l’assurance, nous recherchons un Analyste Technique/ Concepteur Cobol Mainframe. Vous serez amené à travailler dans un de nos CDS, pour contribuer à nos projets de Build. Objectifs et livrables Vous interviendrez sur l’ensemble du cycle de vie des projets sur différents phases : Conception technique Développement et tests unitaires Tests d’intégration et vérifications applicatives (selon périmètre) Rédactions de spécifications Compétences demandées COBOL Confirmé Environnement mainframe Confirmé DB2 Confirmé
Freelance

Mission freelance
Développeur / Testeur COBOL Mainframe

Signe +
Publiée le
COBOL

12 mois
450 €
Lyon, Auvergne-Rhône-Alpes
Projet de modernisation de Système d’Information Mainframe dans un environnement critique. Renfort de l’équipe existante dans le cadre d’un programme long (pluriannuel), avec utilisation d’outils internes de conversion et de migration. Localisation Lyon (Perrache) ou Marseille (Saint-Charles) privilégié Autres localisations en France possibles si présence sur site 3 jours / semaine Démarrage ASAP Durée 3 mois renouvelables – mission longue Télétravail 2 jours / semaine après 2 à 3 mois d’intégration Missions principales Développement et correction de programmes COBOL (Batch et CICS) Debug à la volée de programmes existants et convertis Manipulation de fichiers Mainframe (formats, encodages, structures COBOL) Participation aux phases de tests unitaires, d’intégration et de non-régression Analyse et correction des anomalies issues des conversions Adaptation et création de JCL pour exécution et automatisation des tests Comparaison de fichiers et validation des résultats Support aux équipes client sur la compréhension et l’intégration du code converti Reporting régulier de l’avancement Compétences techniques obligatoires COBOL Batch & CICS (maîtrise impérative) Mainframe DB2 JCL Forte capacité de lecture, compréhension et correction de code existant Compétences optionnelles (fort plus) IDMS ADSO IMS / DL1 VSAM TSO SQL Git Linux / Windows Profil recherché Développeur/testeur aguerri , très autonome À l’aise avec des SI legacy complexes Capable de trouver et corriger des bugs à la simple lecture du code Esprit analytique, rigoureux, orienté qualité Expérience > 8 ans en environnement Mainframe
Freelance

Mission freelance
[SCH] Analyste Technique / Développeur COBOL Mainframe (Assurance) - 1285

ISUPPLIER
Publiée le

10 mois
350-400 €
Lyon, Auvergne-Rhône-Alpes
Pour un client grand compte Assurance, la mission se déroule au sein d’un CDS (Centre de Services) sur des projets Build dans un SI Mainframe. L’objectif est de renforcer l’équipe sur l’analyse technique, le développement et la qualité des livraisons applicatives. Mission / objectifs : Intervenir sur tout le cycle projet en environnement Mainframe, notamment : -Conception technique (analyse, impacts, spécifications techniques / STD) -Développement COBOL et tests unitaires -Tests d’intégration et vérifications applicatives (selon périmètre) -Contribution à la qualité : respect des standards, correction d’anomalies, amélioration continue Livrables attendus : -STD (spécifications techniques détaillées) / notes techniques -Code COBOL + composants associés -Dossiers de tests unitaires + PV / résultats -Support aux tests d’intégration (analyse des rejets, correctifs) Profil attendu : -Autonome sur analyse technique et analyse d’impact en environnement Mainframe -Capable de rédiger une STD claire et exploitable (spécifs techniques détaillées) -Développer des évolutions en COBOL et gérer la maintenance corrective/évolutive -Maîtriser les accès données DB2 / SQL (lecture, requêtes, impacts) -Réaliser les tests unitaires, préparer les jeux d’essais, analyser les rejets -Contribuer aux tests d’intégration et aux vérifications applicatives (selon périmètre) -Respecter les standards de dev, documenter et sécuriser la qualité des livraisons -Communiquer efficacement avec l’équipe (CDS, dev, intégration, QA/MOA selon contexte)
Freelance

Mission freelance
COBOL Mainframe Developer

Focus Cloud Group
Publiée le
COBOL
Mainframe

12 mois
Lyon, Auvergne-Rhône-Alpes
Analyste / Développeur(se) COBOL Mainframe / freelance / 12 mois de contrat initial, 60% de remote Opportunité attrayante pour un(e) expert(e) Mainframe / COBOL chevronné(e) de rejoindre notre client grand compte dont les systèmes d’information accompagnent et protègent quotidiennement des millions d’utilisateurs. Vous rejoindrez une DSI hautement importante au sein d’un Centre de Services (CDS) structuré, dans un environnement Mainframe critique, où vous jouerez un rôle clé dans le développement et l’évolution d’applications cœur de métier. Le but étant de garantir des applications COBOL robustes, performantes et sécurisées, interconnectées avec les systèmes existants, conformes aux exigences métiers et réglementaires du secteur assurance.
CDI

Offre d'emploi
Data scientist H/F

█ █ █ █ █ █ █
Publiée le
Python
Scikit-learn
Tensorflow

Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Les questions fréquentes à propos de l’activité d’un Développeur·euse autre langage (R, Cobol, Perl, VBA, Ruby, Shell...)

Quel est le rôle d'un Développeur·euse autre langage (R, Cobol, Perl, VBA, Ruby, Shell...)

Le développeur (VBA, ruby, perl, shell ...) est un spécialiste des web dynamiques. Sa particularité réside dans le fait qu'il peut traiter des fichiers textes autrement qu'avec des scripts. C'est grâce à cela qu'il est moins limité dans son champ d'action, par rapport aux autres développeurs web. Il a toujours plusieurs tâches à remplir.

Quels sont les tarifs d'un Développeur·euse autre langage (R, Cobol, Perl, VBA, Ruby, Shell...)

En moyenne, le développeur touche environ 450 €/jour en fonction de son expérience. Vous pouvez avoir une rémunération de 31.000€ par an si vous êtes débutant.

Quelle est la définition d'un Développeur·euse autre langage (R, Cobol, Perl, VBA, Ruby, Shell...)

Le développeur Python est responsable de la rédaction, de l'analyse du cahier des charges et de la conception de l'architecture des logiciels (dont certains modules ERP, Big Data…) en fonction de celui-ci et des besoins de son clients. Il code et implémente des algorithmes, mais réalise également des phases de tests techniques, le suivi et la maintenance. Il peut également être amener à former ou à rédiger des fiches techniques pour les utilisateurs.

Quel type de mission peut gérer un Développeur·euse autre langage (R, Cobol, Perl, VBA, Ruby, Shell...)

Le programmeur Python a pour mission : l'architecture, le développement, et l'implémentation de son code pour des applications web, des programmes ou des logiciels. Parmi les missions principales du freelance développeur Python : - développer, implémenter, améliorer le code en Python d'un projet ; - utiliser des Frameworks tels que Django, Flask ou Pyramid ; - migrer l'infrastructure legacy (fonctionnant avec d'anciens langages parfois obsolètes vers Python3 ou une version récente de Python) ; - effectuer des tests unitaires, fonctionnels et techniques ; - s'occuper du suivi et de la maintenance du système actuel ; - améliorer ou créer des solutions d'analyse de données ; - créer de la documentation technique ; - faire de la veille technologique.

Quelles sont les compétences principales d'un Développeur·euse autre langage (R, Cobol, Perl, VBA, Ruby, Shell...)

Le développeur Python connaît tous les concepts de programmation relatifs à son langage préféré. • Gitlab ou Github et CI/CD • Docker et Cloud (AWS, Azure, Google Cloud) • Langages web (JS, HTML, CSS) • Linux et Big Data • Base de données (PostgreSQL, MySQL, Oracle...) Pour le développement Python orienté web, il est aussi important de connaître les frameworks les plus populaires tels que Django et Flask, ou encore Grok, Bottle, Karrigell, Pyramid, Tornado, Zope etc..Le développeur Python devront également faire preuve : - d'une bonne capacité d'analyse ; - d'une compréhension claire des problématiques budgétaires et techniques d'un projet ; - d'une grande créativité pour trouver des solutions ; - d'ouverture d'esprit et capacité à travailler en équipe avec des collaborateurs aux profils multiples (autres freelances tech, product owner, chef de projet technique ou fonctionnel…).

Quel est le profil idéal pour un Développeur·euse autre langage (R, Cobol, Perl, VBA, Ruby, Shell...)

Le développeur Python devront également faire preuve : - d'une bonne capacité d'analyse ; - d'une compréhension claire des problématiques budgétaires et techniques d'un projet ; - d'une grande créativité pour trouver des solutions ; - d'ouverture d'esprit et capacité à travailler en équipe avec des collaborateurs aux profils multiples (autres freelances tech, product owner, chef de projet technique ou fonctionnel…).
93 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Lyon, Auvergne-Rhône-Alpes
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous