Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 7 212 résultats.
CDI

Offre d'emploi
Consultant fonctionnel H/F

CONSORT GROUP
Publiée le
KPI

Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Consultant fonctionnel H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la gestion de projets de transformation et les enjeux de sécurité des systèmes d’information ? Ce poste est fait pour vous. En tant que consultant fonctionnel, vous êtes responsable du pilotage opérationnel du déploiement de l’authentification forte (2FA) et de la coordination des acteurs techniques et métiers au sein de l’écosystème : Côté build : Piloter le déploiement de la solution d’authentification forte (CPS/CPS+, clés FIDO) Définir et animer les ateliers de cadrage (objectifs, participants, supports) Identifier les besoins métiers et les points de blocage Construire et suivre le plan de déploiement (planning, jalons, priorisation) Coordonner les équipes techniques (DSN, IAM, Thales STA) et les parties prenantes métiers Assurer une veille sur les évolutions réglementaires (PGSSI-S, recommandations ANS) Adapter la stratégie projet en fonction des orientations nationales et des contraintes terrain Côté run : Animer les réunions de suivi projet et piloter les plans d’action Produire les comptes-rendus et assurer le suivi des décisions Mettre en place et suivre les indicateurs de pilotage (reporting COPIL) Rédiger la documentation utilisateur (guides, FAQ, supports de formation) Accompagner les utilisateurs (professionnels de santé) dans l’appropriation des solutions Gérer les retours terrain et ajuster les actions de déploiement Contribuer aux activités transverses de l’équipe déploiement (VFT, support projet) C’est votre parcours Vous avez au moins 5 ans d’expérience dans des environnements projets complexes, idéalement dans le secteur de la santé. Vous aimez piloter des dispositifs à forts enjeux organisationnels et sécuritaires sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Gestion de projet (cycle en V, Agile, conduite du changement) Environnements sécurité / IAM / authentification forte (2FA, CPS, FIDO, SSO) Connaissance des référentiels santé (PGSSI-S, ANS) Coordination multi-acteurs (équipes techniques, métiers, éditeurs) Outils de pilotage (reporting, KPI, supports de communication, documentation) C’est votre manière de faire équipe : Excellentes capacités d’animation et de facilitation Diplomatie et sens du relationnel dans des environnements sensibles Rigueur et sens de l’organisation Esprit d’analyse et compréhension systémique Capacité à vulgariser des sujets techniques auprès des métiers C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : 2 jours/ semaine Salaire : De 40000 € à 45000 € (selon expérience) brut annuel Famille métier : Gestion de projet Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance
CDI

Offre d'emploi
📩 Tech Lead / Développeur Java – Data & ELK (Grafana)

Gentis Recruitment SAS
Publiée le
Azure DevOps
Big Data
Databricks

6 mois
40k-45k €
300-400 €
Paris, France
Contexte Dans le cadre des activités de la DSI, au sein du service Systèmes Connectés, notre client pilote plusieurs applications en BUILD et en RUN liées à la gestion et à l’exploitation de données à grande échelle. Nous recherchons un Tech Lead / Développeur expérimenté pour prendre en charge un projet récemment mis en production, permettant de restituer des indicateurs métier via Grafana, alimentés par une stack Java / ELK. Missions principales Prendre en main un projet existant (RUN + évolutions) Assurer la maintenance corrective et évolutive Analyser et résoudre les incidents remontés par les équipes métier Comprendre et corriger les écarts sur les indicateurs affichés Développer de nouveaux objets et indicateurs Piloter techniquement le projet (rôle de référent unique) Suivre le backlog et collaborer avec PO, métier et architectes Participer aux réflexions d’évolution (notamment migration potentielle vers Databricks) Environnement technique Backend / Ingestion : Java Data / Monitoring : ElasticSearch, ELK, Grafana Infra / Cloud : Azure (souhaité) Outils : Azure DevOps Auth (optionnel) : Keycloak Data (optionnel) : Databricks, SQL Server Langages complémentaires (nice to have) : C# Compétences attenduesIndispensables Très bonne maîtrise de ElasticSearch et de la stack ELK Solide expérience en Java Expérience sur des volumétries de données importantes Maîtrise de Grafana Capacité à écrire des requêtes de transformation/exploitation de données (Elastic) Expérience en debug / analyse d’incidents Bonne maîtrise d’Azure DevOps Appréciées Databricks Azure SQL Server Keycloak C# Soft skills Excellente communication avec les équipes métier Forte autonomie (poste en solo sur le projet) Capacité d’analyse et de résolution de problèmes Prise de recul et vision technique
CDI
CDD
Freelance

Offre d'emploi
ML Engineer Google Cloud (Python, Vertex AI, BigQuery) – H/F

SMARTPOINT
Publiée le
BigQuery
Google Cloud Platform (GCP)
IA

1 an
50k-70k €
480-640 €
Île-de-France, France
Dans le cadre de l’amélioration de la personnalisation de l’expérience utilisateur , nous constituons une équipe dédiée aux sujets de machine learning et de recommandation en production . Cette équipe data est composée : d’un Product Owner d’un Data Scientist d’un Lead ML Engineer d’un Machine Learning Engineer L’environnement technique repose principalement sur Google Cloud Platform avec notamment : Python Vertex AI BigQuery Cloud Run Airflow API REST Terraform GitLab CI/CD L’objectif est de concevoir, industrialiser et déployer des solutions de machine learning en production , tout en assurant leur performance et leur scalabilité. Missions Au sein de l’équipe data et ML, vous interviendrez sur l’ensemble du cycle de vie des projets de machine learning en production . Cas d’usage et mise en production Concevoir un premier cas d’usage de personnalisation de l’expérience utilisateur Déployer les modèles en production sur Google Cloud Mettre en place des tests A/B pour mesurer l’impact des recommandations Assurer le monitoring et l’évaluation des performances des modèles Industrialisation des modèles IA Concevoir et maintenir des pipelines machine learning robustes et scalables Mettre en place les architectures MLOps Exposer les modèles via des API REST (FastAPI ou Flask) Industrialiser les modèles développés par les Data Scientists Mettre en place des workflows CI/CD Architecture et infrastructure data Structurer et organiser le stockage des données Garantir la scalabilité, la sécurité et la stabilité des environnements Déployer des infrastructures via Infrastructure-as-Code (Terraform) Collaborer avec les Data Engineers et équipes techniques Collaboration et amélioration continue Participer aux phases de cadrage, planification et delivery Contribuer à la documentation technique Réaliser une veille technologique sur les technologies ML et IA Appliquer les bonnes pratiques de développement et d’architecture data
CDI
Freelance

Offre d'emploi
Developpeur Senior Power Platform / IA

OBJECTWARE
Publiée le
Microsoft Copilot Studio
Agent IA
Power Platform

2 ans
Paris, France
Accompagner les projet de développement en Power Automate et Power Apps : configuration d'environnements, gestion politique DLP, gestion Habilitations, gestion Stockage Dataverse... Concevoir et implémenter des solutions sur la power platform : Conception et Développement de flux Power Automate et des applications Power Apps Etudier et développer des Assistants IA avec Copilot Studio (bot/agent base sur l'IA Gen) Bien connaitre l'ingénierie du prompt : exploiter pleinement les capacités des modèles d'IA Etre force de proposition et participer à la gouvernance : cadre et régles d'usage sur la power Platform. Assurer la communication générale avec Microsoft autour des services de la Power PLatform Mettre en place toutes les automatisations nécessaires à base de scripts Powershell pour automatiser la gestion et l'administration de ces services Mettre en œuvre les éléments de sécurité demandés par le RSSI Produire toute la documentation à destination des équipes N2 Traiter les incidents de niveau 3 Animer en tant qu'expert des groupes de travail technique autour de la power Platform Des compétences sur Copilot studio et la brique CRM D365 sont un plus.
Freelance
CDI

Offre d'emploi
Gestion de Projets Data

VISIAN
Publiée le
Gestion de projet

1 an
Bruxelles, Bruxelles-Capitale, Belgique
Descriptif du poste Dans le cadre de l'intégration des activités au sein d'une grande banque de gestion d'actifs, nous recherchons une expertise en gestion de projets data (au sein d'un asset manager), associée à une bonne connaissance des données de référence (instruments financiers et benchmarks). Le consultant retenu jouera un rôle clé dans la transition des données et des processus vers la plateforme data de l'entreprise – Aladdin. Cela inclut notamment : Accompagner la migration et l'intégration des référentiels Security Master et des données de benchmarks dans Aladdin. Collaborer avec les équipes internes afin de définir et valider les besoins en données, les mappings et les standards de gouvernance. Garantir l'intégrité et la cohérence des données migrées. Participer aux phases de tests, de réconciliation et de validation des processus.
Freelance

Mission freelance
Consultant réseau & sécurité

FUZYO FRANCE
Publiée le
Check Point
F5
Firewall

6 mois
Paris, France
- Déploiement, administration et optimisation des (, , ) et des load balancers . - Participation à la refonte de l’infrastructure firewall et load balancer pour renforcer la résilience. - Contribution à la migration interne des infrastructures et au plan Telecom. - Gestion des data centers multisites (France, Belgique, Italie). - Suivi des audits de sécurité et des campagnes de conformité. 📝 Compétences requises : - Minimum d’expérience en sécurité réseau. - Maîtrise des technologies : , , , . - Bon niveau d’anglais technique (échanges avec fournisseurs). - Autonomie, capacité d’adaptation aux process internes. - Idéalement certifié sur les solutions / .
CDI

Offre d'emploi
Business Analyst Data

Peppermint Company
Publiée le
Business Analyst
Data management
Développement

Sophia Antipolis, Provence-Alpes-Côte d'Azur
vous interviendrez dans une Business Unit transverse couvrant plusieurs domaines : ✈️ Airline – 🏨 Hospitality – 🚆 Rail La mission s’inscrit dans un programme stratégique autour de la Data Platform (création et structuration d’outils data à grande échelle). 🧩 Missions Recueil et analyse des besoins métiers Rédaction des spécifications fonctionnelles Interface entre équipes techniques et métiers Contribution à la construction de la plateforme data Participation aux ateliers et cadrage fonctionnel Accompagnement des équipes sur les sujets data
Freelance

Mission freelance
Product Owner IA

Axysse
Publiée le
KPI
Large Language Model (LLM)
RAG

6 mois
500-650 €
Île-de-France, France
Dans le cadre de l’évolution d’un assistant conversationnel déjà déployé au sein d’une application mobile à forte audience, nous recherchons un Product Owner IA expérimenté pour piloter l’extension de ses usages vers de nouveaux périmètres métiers (assurance vie, leasing, etc.). Depuis son lancement, cet assistant a déjà généré plus d’un million de conversations, confirmant son rôle structurant dans l’amélioration de l’expérience utilisateur. 🎯 Votre rôle Vous intervenez sur une phase clé de structuration et d’extension produit, en lien étroit avec les équipes IT, Data/IA et Métiers. À ce titre, vous serez amené à : • Cadrer les évolutions du produit à partir des travaux d’idéation existants • Définir la vision produit et piloter la roadmap associée • Concevoir l’architecture de gestion des données et la base documentaire • Rédiger les user stories et suivre les développements • Mettre en place la gouvernance projet et les dispositifs de pilotage • Définir et suivre les KPI (usage, performance, impact) • Animer les ateliers et coordonner les parties prenantes Le produit repose sur une plateforme RAG + LLM interne, intégrant différents modèles (OpenAI, Mistral, Google…). 📍 Informations pratiques • Mode de travail : Hybride • Démarrage : ASAP • Durée : 6 mois renouvelables ✨ Pourquoi cette mission ? • Produit déjà déployé et utilisé à grande échelle • Enjeux stratégiques autour de l’IA générative • Forte exposition et impact métier • Périmètre fonctionnel riche et évolutif
CDI

Offre d'emploi
Cloud Data Engineer AWS H/F

VIVERIS
Publiée le

45k-55k €
Grenoble, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre de projets stratégiques autour de la donnée et de l'intelligence artificielle, un grand groupe industriel renforce ses équipes afin de structurer et valoriser des données issues d'environnements industriels complexes. La mission s'inscrit dans une dynamique de construction et d'optimisation de plateformes data, avec des enjeux forts autour de la qualité, de la volumétrie et de l'exploitation des données pour des cas d'usage avancés (analytics, IA). L'environnement technique repose sur un écosystème cloud AWS, avec des outils modernes de data engineering tels que Databricks et Apache Spark, ainsi qu'une forte culture DevOps. Vous intégrerez une équipe en charge de l'ingestion, du traitement et de l'exposition de données à grande échelle. Responsabilités : - Concevoir et procéder à la maintenance des pipelines de données, de l'ingestion à l'exposition ; - Contribuer à l'optimisation des traitements de données à grande échelle et à la fiabilisation des flux ; - Collaborer avec les équipes data et IA afin de garantir la disponibilité et la qualité des données pour les usages analytiques et machine learning.
Freelance

Mission freelance
IA Ready Analyst

ESENCA
Publiée le
Business Analyst
GenAI
Large Language Model (LLM)

1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : IA Ready Lead Position dans l’organisation Le/la IA Ready Analyst prépare et structure les contenus nécessaires au bon fonctionnement des solutions d’intelligence artificielle (copilots, agents, RAG). Il/elle intervient en amont du delivery pour garantir la qualité, la cohérence et l’exploitabilité des bases de connaissances. Encadrement Aucun management direct Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Équipes Digital / Data / IA Équipes en charge de l’adoption et de la conformité Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, RAG, etc.) Cabinets de conseil spécialisés Mission Le/la IA Ready Analyst est responsable de la préparation fonctionnelle des connaissances et contenus utilisés par les solutions d’intelligence artificielle. Il/elle structure les bases de connaissances, garantit leur qualité sémantique, leur cohérence métier et leur traçabilité, et contribue à leur industrialisation pour permettre un usage fiable et performant de l’IA. Responsabilités principales 1. Préparation des contenus IA Identifier et exploiter les sources nécessaires aux cas d’usage IA Structurer, nettoyer et enrichir les bases de connaissances Définir la classification métier (taxonomie, tagging, hiérarchie) Préparer les contenus pour les usages RAG (segmentation, granularité adaptée) 2. Analyse fonctionnelle Comprendre les processus métiers pour organiser les connaissances Définir les règles d’inclusion et d’exclusion des contenus Garantir la cohérence sémantique entre documents et référentiels Assurer l’alignement avec les besoins fonctionnels des cas d’usage 3. Coordination opérationnelle Collaborer avec les équipes IT pour la mise à disposition des données Travailler avec les équipes Data pour l’alignement avec les référentiels Coordonner avec les équipes IA Delivery pour valider la complétude des contenus Contribuer aux spécifications fonctionnelles liées à l’indexation et à l’exploitation des données 4. Qualité des données et des contenus Identifier les doublons, incohérences, obsolescences et manques Appliquer les règles de qualité définies Garantir la lisibilité, la fiabilité et la pertinence des connaissances Améliorer en continu la qualité des bases de connaissances 5. Documentation et gouvernance Maintenir la documentation fonctionnelle des bases IA Appliquer les règles de gouvernance des connaissances Mettre en place et suivre les processus de mise à jour Assurer la pérennité et la maintenabilité des contenus 6. Contribution à la conformité Garantir la traçabilité des sources utilisées Veiller à l’absence de données sensibles non nécessaires Contribuer aux exigences réglementaires (ex : RGPD, cadre IA) Fournir les éléments nécessaires aux équipes en charge de la conformité 7. Industrialisation et réutilisation Appliquer les standards IA Ready sur les nouveaux cas d’usage Maintenir des modèles de connaissances réutilisables Capitaliser sur les retours d’expérience Diffuser les bonnes pratiques de structuration des contenus
Freelance

Mission freelance
Consultant MS BI Power BI

Clémence Consulting
Publiée le
Azure Data Factory
DAX
Microsoft Power BI

3 mois
Paris, France
Pour créer de A à Z (modélisation, alimentation... jusqu'aux rapports) des reporting pour une nouvelle activité ; la mission comprendra les tâches suivantes : · Concevoir des modèles de données adaptés. · Créer et optimiser des bases de données et entrepôts de données (SQL Server principalement). · Prendre en charge les développements de rapports Power BI. · Prendre en charge les développements de scripts SQL/Procédures. · Prendre en charge les développements des pipelines Azure Data Factory. · Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality). · Être force de propositions sur les optimisations de traitement · Rédaction de la documentation (spécifications techniques), recettes. · Gestion du code source via Microsoft Devops et déploiement CI/CD. · Préparation des livrables pour les mises en production.
Freelance

Mission freelance
Data Analyst Professional

Codezys
Publiée le
Data visualisation
Python
SQL

12 mois
310-400 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Le projet est réalisé pour le compte d’un client resté anonyme, permettant de préserver la confidentialité de ses activités et de ses données stratégiques. La mission s’inscrit dans un environnement où l’analyse précise des données joue un rôle clé pour orienter la prise de décision et optimiser les processus internes. Le candidat doit disposer d’une expérience professionnelle comprise entre 2 et 5 ans, ce qui garantit une maîtrise suffisante des techniques d’analyse tout en étant capable de s’adapter rapidement aux spécificités du projet. Objectifs et livrables Collecte de données : Recueillir des données provenant de diverses sources, telles que bases de données internes, fichiers Excel, API tierces ou autres systèmes d’information. Assurer la qualité et l’intégrité des données dès la phase de collecte pour faciliter leur utilisation ultérieure. Visualisation et analyse : Développer des tableaux de bord interactifs et des visualisations dynamiques à l’aide d’outils comme Power BI, Tableau ou QlikView. Effectuer des analyses exploratoires pour détecter des tendances, anomalies ou opportunités spécifiques, conformément aux enjeux fixés par l’entreprise. Extraction et structuration des données : Mettre en œuvre des techniques avancées de traitement de données pour extraire des informations pertinentes. Organiser ces données sous des formats structurés, tels que des bases de données relationnelles ou des modèles multidimensionnels, en utilisant des langages comme SQL ou Python. Construction de modèles et rapports : Développer des modèles analytiques robustes, notamment des modèles prédictifs ou descriptifs, adaptés aux besoins métiers. Produire des rapports standardisés et des outils autonomes destinés à une communauté d’utilisateurs élargie, facilitant la prise de décision collective. Ce projet exige une communication fluide avec les parties prenantes, une capacité à documenter clairement le processus de traitement des données, ainsi qu’une vigilance constante pour garantir la pertinence et la qualité des livrables, dans le respect des délais impartis.
Freelance
CDD
CDI

Offre d'emploi
Expert Data Gouvernance H/F

Avanda
Publiée le
Apache Airflow
Collibra
Databricks

12 mois
Paris, France
Nous recherchons, dans le cadre du renforcement des equipes Data Governance d'un de nos clients au rayonnement international, un.e Expert.e Data Governance. Ce poste est base a Paris. Poste ouvert au statut freelance. Au sein de l'équipe Data Governance, l'Expert.e Data Gouvernance interviendra sur l'évolution fonctionnelle et technique du Data Catalog de l'entreprise et son intégration au sein d'un écosystème data & agentic platform en pleine structuration, ainsi que sur des chantiers stratégiques tels que l'AI Governance Framework et la mise en oeuvre d'une démarche Data Quality by Design. Les missions principales Administration, configuration et développement de workflows sur le Data Catalog Collecte et priorisation des besoins utilisateurs Conception et mise en oeuvre des échanges de métadonnées avec la plateforme data (crawling, APIs, connecteurs) Synchronisation avec les équipes architecture Intégration avec le Data Quality Metrics Store Participation au programme Data Contract
Freelance

Mission freelance
Data Governance Specialist - Data Catalog

Codezys
Publiée le
Apache Airflow
Collibra
Databricks

6 mois
Lille, Hauts-de-France
Contexte de la mission Le Data Governance Specialist rejoint l’équipe Expertise du Centre d’Expertise (CoE) Data Governance . Cette équipe a pour mission d’élaborer des principes communs, de favoriser la transversalité des rôles et des processus de gouvernance des données, ainsi que d’industrialiser l’utilisation de l’expertise afin de résoudre les problématiques rencontrées par les Digital Units lors de l’exécution des processus de gestion des données. La mission consiste à assurer une expertise à la fois fonctionnelle et technique concernant la solution de Data Catalog de Decathlon ( Collibra ) et son intégration dans l’écosystème de la Data & Agentic Platform . Elle inclut également une participation active aux chantiers stratégiques de transformation, tels que le AI Governance Framework , la Trust AI et la Data Quality by Design . Objectifs et livrables Développement produit / Configuration du Data Catalog Collibra : Conception de solutions pour répondre aux problématiques des utilisateurs de Collibra et mise en œuvre de ces solutions dans l’outil (administration, configuration, développements spécifiques si nécessaire). Validation des spécifications, développement et déploiement des workflows. Assistance pour la collecte des demandes et des requêtes des utilisateurs, ainsi que leur tri. Intégration du Data Catalog (Collibra) avec l’écosystème technologique de la donnée : Participer à la conception, à la mise en œuvre et à l’exploitation du système d’échange de métadonnées entre le Data Catalog, les solutions composant la Data Platform de Décathlon et les différents référentiels de métadonnées de l’entreprise. Collaborer avec l’équipe d’architecture pour assurer une intégration fluide. Configurer les capacités Edge en vue de la collecte des différentes zones de données. Développer et maintenir les connexions (crawling, APIs, connecteurs), assurer l’échange d’informations entre les systèmes IT et le Data Catalog (en interaction avec le support technique de Collibra). Intégrer le Data Catalog au sein du Data Quality Metrics Store. Participer activement au programme de Data Contract.
Freelance

Mission freelance
Consultant MOA Data / SQL – Secteur Protection Sociale

Comet
Publiée le
AMOA

1 an
400-650 €
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation SI, un grand acteur de la protection sociale renforce ses équipes pour accompagner une migration majeure de référentiels métiers . Ce projet à fort enjeu s’inscrit dans une feuille de route nationale avec des impacts réglementaires et opérationnels importants. Au sein d’une équipe MOA, vous interviendrez sur un projet structurant autour de la fiabilisation des données et de la migration vers un système cible fédéré . Vos responsabilités Participation à la préparation de la migration des données Fiabilisation et contrôle des référentiels Réalisation des recettes fonctionnelles et data Analyse et suivi des anomalies Interface entre équipes métiers et IT (MOA / MOE) Contribution à l’ accompagnement des utilisateurs Rédaction de livrables et documentation
CDI
Freelance

Offre d'emploi
Développeur Python (H/F)

Aleysia
Publiée le
Agile Scrum
Big Data
Docker

12 mois
Grenoble, Auvergne-Rhône-Alpes
Tu as l'esprit d'initiative et tu aimes travailler dans un environnement stimulant, postule sans attendre à cette offre de Développeur·se Python qui est faite pour toi ! 🚀 Ton challenge si tu l’acceptes : Développer des solutions innovantes en Python, avec un code optimisé, clair et bien documenté. Intégrer des API et interagir avec des bases de données relationnelles et / ou non relationnelles Contribuer à la pérennité et à l'évolution des applications en assurant leur maintenance et en proposant des améliorations continues. Être un acteur clé de la qualité du code en concevant et en mettant en œuvre des tests unitaires et d'intégration robustes. Suivre les bonnes pratiques de développement et participer au revue de code Travailler en méthodologie Agile/Scrum et participer aux réunions d’équipe
7212 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous