Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 441 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer confirmé

ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL

1 an
40k-45k €
100-400 €
Nantes, Pays de la Loire
Contexte de la mission Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
CDI
Freelance

Offre d'emploi
Data Engineer confirmé

ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL

1 an
40k-45k €
100-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
CDI
Freelance

Offre d'emploi
Data engineer Azure

UCASE CONSULTING
Publiée le
Azure
Azure Data Factory
Databricks

1 an
50k-55k €
450-500 €
Lyon, Auvergne-Rhône-Alpes
Mission basée à Lyon. Pour l'un de nos clients, nous recherchons un(e) Data Engineer expérimenté(e) pour intervenir sur des environnements cloud Microsoft et participer à la conception de plateformes data modernes et performantes. Missions Concevoir et développer des pipelines de données robustes sur Azure Mettre en place et maintenir les flux via Azure Data Factory Développer et optimiser les traitements de données dans Databricks Participer à la modélisation des données (Data Lake / Data Warehouse) Garantir la qualité, la performance et la fiabilité des données Collaborer avec les équipes métiers et BI pour faciliter l’exploitation des données (notamment via Power BI )
Freelance

Mission freelance
247811/Incident Manager Data Niort - Dynatrace, Confluence, ITIL

WorldWide People
Publiée le
ITIL

6 mois
350 €
Niort, Nouvelle-Aquitaine
Incident Manager Data Niort - Dynatrace, Confluence, ITIL Contexte de la mission Le Data Office de mon client définit les orientations stratégiques dans le domaine de la donnée et assure l'homogénéité et la performance de l'écosystème Data. L'équipe Exploitation des Services de Services Delivery Data pilote, assure et améliore au quotidien la disponibilité des services informatiques. Des compétences d'autonomie, de force de proposition tout en ayant une bonne connaissance des environnements de production sont indispensables. Le candidat doit avoir une posture d'amélioration continue. Objectifs et livrables Le poste d'Incident Manager a pour objectif de piloter le processus de gestion des incidents sur le périmètre Data, conformément aux bonnes pratiques ITIL. Il veille à la restauration rapide du service lors d’incidents, à la résolution durable des causes racines, et à la satisfaction du client. Objectifs et livrables Son rôle s’inscrit pleinement dans une démarche d’amélioration continue et de pilotage de la qualité de service. Les missions principales consistent à : ● Piloter le traitement des incidents selon ITIL. ● Coordonner les équipes techniques et suivre les escalades. ● Gérer les incidents majeurs (crise, communication, RCA). ● Assurer la production, l’analyse et la présentation des reportings opérationnels et de gouvernance. ● Participer aux comités techniques et opérationnels. ● Contribuer à l’amélioration continue des processus et de la performance du service. Compétences Requises Un minimum d’expérience est demandé (x<3 ans) avec des compétences avérées. Savoir-Être (Soft Skills) ● Connaissance du référentiel ITIL v4 (certification souhaitée). ● Expérience en pilotage d’incidents. ● Maîtrise de l’outil ITSM (Easyvista). ● Maîtrise du reporting (Google WorkSpace). ● Capacité d’analyse, esprit de synthèse et orientation résultats. ● Excellentes aptitudes en communication et en relation client. ● Rigueur, diplomatie, réactivité et sens du service. ● Activité réalisée partiellement sur site et télétravail. Compétences Techniques (Hard Skills) Le niveau d'expertise souhaité est détaillé ci-dessous : Compétence Niveau Souhaité Ordonnanceur (Control M) Élémentaire (*) Monitoring (Dynatrace) Élémentaire (*) Easyvista ITSM Avancé (**) Jira, Confluence, Google Workspace Élémentaire (*) Certification ITIL Avancé (**) Légende : Élémentaire (*), Avancé (**), Confirmé (***), Expert (****) Compétences demandées Compétences Niveau de compétence CONFLUENCE Expert DYNATRACE Expert ITIL Expert
Freelance

Mission freelance
Consultant – Data Monetization & Snowflake Pricing Strategy

Mon Consultant Indépendant
Publiée le
Data analysis
IA

1 mois
1 050-1 090 €
Courbevoie, Île-de-France
Consultant – Data Monetization & Snowflake Pricing Strategy Mission freelance Contexte : Un éditeur logiciel développe une offre de data sharing permettant à ses clients d’accéder à des données en temps réel via une plateforme data basée sur Snowflake. Dans ce contexte, l’entreprise souhaite structurer le modèle économique de cette offre, en définissant un modèle de pricing cohérent entre : · Les coûts d’infrastructure Snowflake · L’usage réel des données · La valeur business apportée aux clients La mission vise à définir une stratégie de monétisation durable pour l’accès et l’exploitation de ces données. Objectifs de la mission : Le consultant interviendra pour : · Analyser les coûts techniques liés à l’usage de Snowflake · Comprendre les patterns d’usage des données par les clients · Définir un modèle de pricing pour l’accès et l’exploitation des datasets · Identifier les scénarios de monétisation possibles (data sharing, analytics, IA, etc.) L’objectif est de concevoir un modèle économique équilibré entre coût d’infrastructure, valeur client et potentiel de croissance commerciale. Travaux attendus : Le consultant devra notamment : · Analyser le modèle de pricing Snowflake (compute, storage, data sharing) · Modéliser différents scénarios de consommation de data · Définir plusieurs modèles de pricing possibles · Évaluer l’impact économique selon différents niveaux d’usage · Recommander une stratégie de monétisation de la data Exemples de modèles étudiés : · Pricing basé sur l’usage · Packages de données · Accès premium à certaines données · Pricing lié aux capacités analytiques ou IA Profil recherché : Nous recherchons un consultant ayant déjà travaillé sur des problématiques de monétisation de la data dans des environnements SaaS ou data platform. Expériences pertinentes : · Définition de modèles de data monetization · Stratégie de data sharing · Pricing de produits data ou analytics · Plateformes Snowflake / Databricks / data cloud Compétences attendues : · Compréhension des architectures data platform · Connaissance du modèle économique Snowflake · Expérience en usage-based pricing · Capacité à modéliser des scénarios économiques · Capacité à traduire les coûts techniques en modèles commerciaux Profil type : Le consultant peut venir de : · Conseil en stratégie data · Éditeur SaaS utilisant Snowflake · Plateforme data / analytics · Equipes data product ou data monetization
Freelance

Mission freelance
Data Scientist – Deep Learning / NLP

ESENCA
Publiée le
Google Cloud Platform (GCP)
Machine Learning
Python

1 an
400-500 €
Lille, Hauts-de-France
Contexte Dans le cadre du renforcement de ses équipes Data, notre client recherche un Data Scientist senior spécialisé en Deep Learning et NLP , avec une expérience significative dans le secteur retail . Mission longue durée : 12 mois renouvelables . Missions Concevoir, développer et optimiser des modèles de Deep Learning (PyTorch) appliqués à des cas d’usage retail Travailler sur des problématiques avancées de : Learning to Rank (LTR) Ranking / systèmes de recommandation Génération d’embeddings Fine-tuner et adapter des modèles existants : LLM (Large Language Models) autres modèles NLP Explorer, analyser et valoriser des données complexes pour améliorer la performance des modèles Réaliser des PoC / MVP pour valider les approches techniques Participer à l’industrialisation et à l’amélioration continue des modèles Collaborer avec les équipes métiers et techniques (Data, Produit, IT) Environnement technique Python (expert) Machine Learning / Deep Learning PyTorch NLP / LLM Google Cloud Platform (GCP) Soft skills Esprit analytique et orienté résultats Capacité à travailler en équipe transverse Autonomie et capacité à proposer des solutions Bonne communication
Freelance

Mission freelance
Développeur Big Data

Codezys
Publiée le
JIRA
Linux
Python

24 mois
330-400 €
Lyon, Auvergne-Rhône-Alpes
Organisation Dans le cadre de ses activités liées au traitement de données volumineuses, une organisation recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans la gestion d'une plateforme Hadoop. Objectif de la mission Réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, notamment la mise en place d'extractions et l'accompagnement des utilisateurs. Description de la mission Le candidat, rattaché au responsable en charge du traitement de données volumineuses, sera principalement chargé de : Prendre en charge l'évolution des flux de données et reprendre les développements existants pour leur alimentation, en faisant évoluer ceux-ci selon les besoins. (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) Définir la spécification technique des tâches, fournir des requêtes de référence, réaliser des revues de code, et accompagner d’éventuels alternants ou stagiaires. Mettre en place des processus d'extraction à partir des données. Assurer le support de niveau 2. Faire respecter les consignes d’utilisation auprès des utilisateurs. Garantir le respect des délais de livraison dans un environnement exigeant. Contribuer à la maintenabilité, la performance et l’exploitabilité de la plateforme. Il veillera également à respecter l’utilisation des modèles référencés ou leur évolution, en collaboration avec la Direction Technique et la Gouvernance des Données. Le profil doit posséder des compétences avérées en communication, diplomatie, capacité d’intégration, partage de connaissances, documentation, et accompagnement des utilisateurs.
Freelance

Mission freelance
Tech Lead Fullstack React / Next JS H/F

OUICODING
Publiée le

1 mois
420-580 €
Courbevoie, Île-de-France
Vos missions : -Accompagner les équipes de réalisation lors du développement. -Développer sur le périmètre applicatif de l'équipe. -Participer à l'élaboration de l'architecture applicative des solutions avec l'ensemble des parties prenantes (développeurs, architectes, équipe sécurité et infrastructure). -Participer à la conception technique des projets (analyser les besoins et rédiger les exigences techniques). -Être garant des bonnes pratiques de développement (revue de code, analyse SonarQube, etc). -Travailler en étroite collaboration avec l'ensemble des parties prenantes des sujets.
CDI
Freelance

Offre d'emploi
Data Scientist MLOps (H/F)

STORM GROUP
Publiée le
Apache Airflow
BigQuery
MLOps

3 ans
45k-55k €
400-500 €
Île-de-France, France
Missions : • contribution aux projets décisionnels - Big data • participation et animation de groupes de travail avec les utilisateurs et les informatiques • collecte des besoins auprès des métiers • modélisation et développement des reporting : spécification des indicateurs décisionnels (statistique, qualité, facturation) • exploration de données • rédaction des livrables : spécifications fonctionnelles et techniques, cahiers de recette • participation aux recettes • formation et accompagnement des utilisateurs
Freelance

Mission freelance
BA DATA VIZ TABLEAU

Mon Consultant Indépendant
Publiée le
Microsoft Power BI

12 mois
540-600 €
Paris, France
MERCI DE NE PAS POSTULER SI VOUS NE DISPOSEZ PAS: · Expérience en environnement bancaire · Maîtrise avancée des outils Tableau et Power BI · Excellent niveau de communication orale Notre client est une société de financement qui a lancé un projet de mise en place de l'outil DATAVIZ Tableau . Vous aurez plusieurs responsabilités au sein de l'équipe projet dont notamment : · Participer à la formalisation des formations / modes opératoires et des procédures pour acculturer les utilisateurs sur l’utilisation du Datawarehouse/ · Animer les ateliers de prototypage utilisateurs et/ou avec le prestataire, · Accompagner la réalisation des tableaux de bords « Tableau » en binôme avec un expert technique de la solution Conception des TDB et reportings sur « Tableau software» Formation de « Tableau software » Etre en lead sur la phase de conduite du changement Accompagner la structuration de la recette et la mise en qualité des données Assurer le lien avec les chefs de projet et experts
CDI

Offre d'emploi
Chef de projet Data MDM (industrie)

Amontech
Publiée le
BigQuery
Looker Studio
Master Data Management (MDM)

40k-45k €
Aubervilliers, Île-de-France
📌 Contexte Dans le cadre d’une mission au sein du Pôle DATA (secteur industriel) nous recherchons un/une Chef(fe) de projet Master Data pour intervenir sur la gestion et l’amélioration du référentiel d’entreprise. Vous intégrerez une équipe dédiée à la gouvernance des données , travaillant sur une solution interne et des projets d’amélioration continue de la qualité des données et des workflows métiers. 🎯 Missions En tant que Chef(fe) de projet Master Data, vous interviendrez à la fois sur la gestion du référentiel, l’amélioration de la qualité des données et la conduite de projets d’évolution. 🔧 Gestion et administration du référentiel (50%) Traiter les demandes utilisateurs dans les délais convenus Accompagner et animer le réseau des référents pour l’appropriation des outils et workflows Maintenir la cohérence et l’intégrité du référentiel de données ⚙️ Amélioration de la qualité des données (30%) Réaliser des analyses croisées multi-sources pour identifier anomalies et incohérences Définir et prioriser les plans d’action qualité en collaboration avec les métiers Évaluer les impacts sur les systèmes consommateurs et coordonner les actions correctives 🔧 Conduite de projets d’amélioration continue (20%) Recueillir et analyser les besoins d’évolution exprimés par le business Proposer des solutions innovantes et les soumettre à validation hiérarchique Piloter les projets validés de bout en bout (cadrage, spécification, réalisation, déploiement)
Freelance

Mission freelance
BA/Data analyst 

Nicholson SAS
Publiée le
ETL (Extract-transform-load)
Méthode Agile
Shell

5 mois
350 €
Val-de-Marne, France
BA/Data analyst pour mon client Entité : Banque Site : Val de Marne; 2 jours/semaine obligatoire sur site Prix d’achat max : 355 euros Date de démarrage : asap Date de fin : 01/07/2027 Contexte : Au sein du pilier RPBI (« Retail, Private Banking & Insurance »), RPBI Business Solutions , gère les systèmes d’information du Réseau Private Banking . La direction RBS/DMP est en charge de la Data, de sa gouvernance, ainsi que des projets et applications des filières Marketing et Pilotage. Le Chapter DEV intervient dans le développement des applications des différentes Tribes, en intégrant les compétences techniques nécessaires au sein des Feature Teams. Mission : Le Bénéficiaire , en charge de l'application/entrepôt décisionnel CMW souhaite une expertise pour sa Feature Team , notamment sur le sujet NDOD ( Nouvelle Définition du Défaut ) mis en place depuis quelques années mais générateur de beaucoup d'analyses et/ou évolutions ==> sujet "sensible" sur lequel les demandes d'analyses arrivent au fil de l’eau, d'où capacité à pouvoir gérer une certaine pression. À ce titre, le bénéficiaire souhaite bénéficier de l'expertise du prestataire en termes de Data Analysis. Dans ce cadre, la prestation consiste à contribuer à/au(x): Compréhension des besoins métier Spécifications fonctionnelles générales et détaillées dans le respect des règles d'urbanisme (DCO, CFG, CTG) Contribution aux ateliers avec les Métiers Estimation des charges et délais des évolutions du périmètre Assistance aux comité opérationnels Support à l'entité de développement situées à Bangalore dans la mise en oeuvre Support aux Métiers, requêtage et extractions ponctuelles, réponse aux exigences réglementaires. Mise en place du plan de qualification et sa validation Profil : BA/Data analyst pour la Société Générale Nombre d’années d’expérience : + 8 ans Expérience techniques requises Expertise de l'ETL Datastage fortement recommandée (min 2 ans) Maitrise du SQL indispensable (10 ans) Expertise en Shell, sur l'ordonnanceur CTRL M, et sur SNOWFLAKE seraient les bienvenues. Notions d'Agilité Environnement anglophone Modélisation en étoile (5ans) Banque de Détail / Risque de Crédit (8 ans)
Freelance

Mission freelance
Data Architecte AWS / Iceberg

Atlas Connect
Publiée le
Apache Airflow
Apache Spark
API

12 mois
590-600 €
Île-de-France, France
Data Engineer Senior afin d’accompagner la conception, l’industrialisation et l’évolution de ses solutions data. Le prestataire interviendra sur les sujets d’architecture, de modélisation, d’optimisation des pipelines et contribuera activement à la stratégie Lakehouse de l’entreprise. Missions principales Concevoir, développer et optimiser des pipelines de données à grande échelle. Mettre en œuvre des flux batch , streaming et ingestion via API . Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold). Développer et industrialiser les pipelines via DBT , Spark et Iceberg . Contribuer à l’évolution de l’architecture Lakehouse de l’entreprise. Déployer et maintenir les pipelines dans un environnement cloud (AWS ou équivalent). Orchestrer les workflows ETL/ELT via Airflow . Mettre en œuvre l’ Infrastructure as Code ( Terraform ). Exécuter les traitements dans des environnements conteneurisés ( Docker , Kubernetes ). Garantir la disponibilité, la supervision et l’observabilité des traitements. Participer à la gestion des incidents et à l’amélioration continue. Définir et mettre en œuvre les règles de qualité des données (tests, validation, contrôles automatisés). Documenter les architectures, pipelines et règles métier. Garantir la conformité des flux, notamment dans le cadre RGPD .
Freelance
CDI

Offre d'emploi
Data Scientist

ANDEMA
Publiée le
Databricks
PySpark
Python

12 mois
55k-65k €
400-500 €
Lille, Hauts-de-France
Contexte Entreprise en forte croissance , avec un volume d’activité soutenu et de nombreux projets data en cours et à venir. Dans ce cadre, nous recherchons un(e) Data Scientist pour compléter l’équipe existante et contribuer activement au développement de nouveaux sujets stratégiques. Modalité : Pré-embauche (PE) Possibilité d’intervenir en freelance pendant la période de pré-embauche , avec une volonté forte d’internalisation à l’issue du process. Votre mission Vous rejoindrez une équipe data dynamique avec pour objectif : Prendre en main de nombreux sujets variés Construire, tester, industrialiser des modèles et analyses Travailler en étroite collaboration avec les équipes métiers Participer à la structuration et à la montée en maturité data de l’entreprise Contribuer à des problématiques de mesure de performance, campagnes marketing, retail média , etc. Ici, pas de silo : vous serez exposé(e) à des problématiques multiples et stimulantes. Nous recherchons donc des candidats passionnés et polyvalents. Stack technique Python (obligatoire) PySpark (obligatoire) Databricks Environnements data modernes orientés cloud Pourquoi nous rejoindre ? - Entreprise en forte croissance - Projets variés et concrets - Forte exposition business - Possibilité d’évolution rapide - Environnement agile et stimulant Si vous aimez la diversité des sujets, l’impact business et les environnements en croissance, cette opportunité est faite pour vous
Freelance

Mission freelance
Data Modeler PROGRAMME DE TRANSFORMATION DATA B2B sur Paris

EterniTech
Publiée le
BigQuery
Google Cloud Platform (GCP)
Modélisation

6 mois
Paris, France
Mission : Data Modeler – Transformation Data B2B sur Paris Projet : Senior Data Analyst / Data Modeler (B2B) Contexte : Programme de transformation Data B2B, création d’un nouvel espace de données sur Google Cloud Platform / BigQuery . Approche : Greenfield – reconstruction des produits de données depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). Équipe : Intégré à la “Core Team” pour bâtir le socle technique et les données de référence utilisées par les Squads Métiers. Démarrage : ASAP / URGENT Objectif de la prestation : Le prestataire sera Référent Modélisation & Connaissance de la Donnée , faisant le lien entre Experts Métiers et Lead Data Engineer Agile. Responsabilités principales : Conception du Core Model : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) sur BigQuery (Star Schema / Data Vault). Règles de Gestion RCU : Définir/prototyper en SQL les règles de rapprochement entre données techniques et légales (SIREN/SIRET). Archéologie de la Donnée : Analyser les sources legacy (Oracle), identifier règles implicites et écarts avec la cible. Gouvernance & Dictionnaire : Documenter les métadonnées dans AIDA et ODG. Support aux Squads : Préparer des datasets certifiés pour Data Scientists et Analystes. Livrables attendus : Modélisation cible : Modèles Logiques de Données validés par Tech Lead. Mapping Source-to-Target. RCU / Vision 360 : Spécifications SQL des règles d’unicité, matrice de cas particuliers. Gouvernance : Dictionnaire de données intégré dans AIDA et ODG. Qualité des données : Définition des règles DQ pour chaque objet métier. Prototypage / exploration : Requêtes SQL et datasets de test pour validation métier. Planning clé : 1er draft RCU : mi-mars 2026 MVP RCU : fin mars 2026 Gouvernance et qualité : continu Prototypage : à la demande
Freelance

Mission freelance
Tech Lead Mobile - React Native

Cherry Pick
Publiée le
React Native

12 mois
500-550 €
Paris, France
Tech Lead Mobile (React Native) Contexte de la mission Dans le cadre de la reprise et de l’évolution des applications mobiles d’une de nos filiales, le Tech Lead Mobile intervient comme référent technique du dispositif mobile. Le projet comprend notamment : la reprise technique de l’application existante la maintenance corrective et évolutive de cette application ; la conception et le développement d’une nouvelle application, destinée aux clients et aidants ; la mise en place d’un socle technique mobile robuste, sécurisé et scalable. L’application actuelle est développée en React Native, connectée à des API REST et GraphQL, avec un backend Node.js / NestJS, une base PostgreSQL et des outils Firebase pour le monitoring applicatif. Le Tech Lead Mobile garantit la qualité technique globale du dispositif mobile et accompagne l’équipe dans la mise en œuvre des bonnes pratiques mobile. Il assure : le pilotage technique du périmètre mobile, la coordination technique des développements, l’accompagnement et la montée en compétences des développeurs de l’équipe. Missions principales Leadership technique Définir et faire évoluer l’architecture technique des applications mobiles. Garantir la qualité, la maintenabilité et la performance du code. Piloter les choix techniques structurants en lien avec l’architecture globale du système. Assurer les revues de code et la validation des contributions. Diffusion des bonnes pratiques et accompagnement de l’équipe Définir et diffuser les standards de développement mobile (architecture, structuration du code, gestion des états, gestion des erreurs, performance). Mettre en place et faire respecter les bonnes pratiques de développement : conventions de code, patterns d’architecture, gestion des dépendances, gestion des appels API. Accompagner la montée en compétences des développeurs mobiles de l’équipe. Assurer un mentorat technique quotidien des deux autres développeurs. Organiser des sessions de partage technique et de capitalisation (retours d’expérience, bonnes pratiques, veille technologique). Favoriser l’autonomie et la progression technique de l’équipe. Reprise technique de l’existant Participer à l’audit technique de l’application mobile existante : qualité du code, dette technique, sécurité, performance. Contribuer à la reprise des environnements et de la chaîne CI/CD. Proposer un plan de stabilisation et d’amélioration technique. Conception et développement Participer à la conception technique des nouvelles fonctionnalités. Encadrer le développement des évolutions de l’application de la nouvelle application Garantir la bonne intégration avec l’ERP Ximi via les APIs. Veiller à la cohérence technique entre les différentes applications mobiles. Performance et scalabilité Concevoir une architecture capable de supporter plusieurs milliers d’utilisateurs actifs, avec une cible supérieure à 14 000 utilisateurs actifs. Optimiser les performances de l’application et la consommation des APIs. Qualité et sécurité Mettre en place les standards de : tests unitaires, tests d’intégration, tests de non-régression. Participer à la stratégie de monitoring et de supervision (Crashlytics, logs, alerting).
2441 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous