Trouvez votre prochaine offre d’emploi ou de mission freelance Développeur·euse base de données (SQL, PL/SQL, Oracle...) à Saint-Denis

Le développeur base de données est un expert informatique qui doit structurer, organiser, et rendre accessible l’ensemble des données pour ses clients. Quand on sait que les données sont devenues la base de toute entreprise, il devient indispensable de les confier à un professionnel. Le développeur se présente comme étant le garant de la cohérence et de l’accessibilité permanente des informations. Il se charge d’indiquer les bons logiciels et outils qui permettent d’offrir un accès fonctionnel et rapide à toutes ces données. Pendant la création d’un site, le développeur base de données réfléchit d’abord aux différentes tables destinées à composer la base de données. Il se sert d’outils d’analyses et de modélisations pour cela, et veille ensuite à conserver une importance stratégique. Il s’assure du bon fonctionnement de la base, et le cas échéant, il se charge de bien l’enrichir afin d’intégrer les nouvelles requêtes des utilisateurs.
Informations sur la rémunération de la fonction Développeur·euse base de données (SQL, PL/SQL, Oracle...).

Votre recherche renvoie 23 résultats.
Freelance

Mission freelance
Data Engineer | DevOps AWS (H/F)

Publiée le
AWS Cloud
CI/CD
Data analysis

9 mois
400-450 €
Saint-Denis, Île-de-France
Télétravail partiel
Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction , à l’évolution et à la fiabilité d’un Data Lake stratégique , au cœur des projets liés à l’analyse de l ’expérience utilisateur. Vous interviendrez sur l’ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d’un environnement AWS moderne, dans une logique d’ industrialisation , de performance et de qualité de service . Vos principales missions : • Maintenir et faire évoluer une architecture data scalable sur AWS , adaptée à des volumes importants de données hétérogènes ( logs, fichiers, API …). • Concevoir et structurer les différentes couches du Data Lake ( Landing, Bronze, Silver ) en lien avec les besoins métiers et les bonnes pratiques data. • Développer des pipelines de traitement de données robustes et automatisés ( ETL/ELT ), en batch ou quasi temps réel , via des services AWS : Glue, Lambda, EMR, Redshift, S3… • Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. • Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. • Intégrer de nouvelles sources de données aux formats variés ( API REST, fichiers plats, logs applicatifs …) tout en assurant sécurité et performance . • Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. • Participer à l’ amélioration continue de la plateforme (veille, refonte, optimisation) , dans une logique DataOps (CI/CD, qualité, tests, versioning). • Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus . • Documenter l’architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.
Freelance

Mission freelance
MOE Java (H/F)

Publiée le
Gestion de projet
Java

36 mois
500-580 €
Saint-Denis, Île-de-France
Télétravail partiel
Cette expression de besoin concerne des compétences de chef de projet assistant à maître d’œuvre (AMOE) au sein d’une DSI, pour un pôle de gestion des interventions (GDI) qui entame une refonte de son SI. Le projet 3PO vise à remplacer progressivement plusieurs SI historiques (GDI, GD2I, O2, OPTIC, eO2). 3PO facilite le quotidien des équipes en supprimant les saisies redondantes et en fournissant un outil unique de gestion des interventions avec, par exemple, un planning unifié pour visualiser et programmer les différentes activités. 3PO prend en compte les parcours des différents acteurs de la gestion des interventions afin de répondre aux exigences croissantes (optimisation, simplification, etc.). Pour répondre au besoin de transformation de l’écosystème GDI, le projet met en place une architecture modulaire, orientée micro-services et évènementielle (event driven), basée notamment sur des développements spécifiques Java, Angular et Kafka. Des squads dédiées back-end et une squad front-end sont mises en place pour réaliser la nouvelle architecture et livrer les fonctionnalités attendues par le métier. Un chef de projet AMOE est requis pour la conception et la mise en service des lots. Mission Le Chef de projet d’application Java conduit les différents lots du projet depuis la conception jusqu’au déploiement. À ce titre, il/elle : - Est garant(e) de la réalisation des projets qui lui sont confiés, en particulier sur les aspects techniques, en relation avec la maîtrise d’ouvrage. - Participe au choix des solutions à mettre en œuvre. - Conçoit la solution technique des applications : interfaces, diagrammes de séquence, gestion des modes dégradés, gestion des logs, etc. - Rédige la documentation technique (spécifications techniques détaillées, PTI, PTE, dossier de mise en production…). - Est garant(e) de la solution d’architecture mise en œuvre, en lien avec l’architecte, les développeurs et le responsable MOE. - Participe aux revues de code. - Définit la stratégie de tests et s’assure de la bonne exécution de ces tests ainsi que de leur automatisation. - Valide techniquement les composants livrés pendant les phases de recette. - Préconise des adaptations pour maintenir et améliorer les performances, l’exploitabilité, la maintenabilité et l’évolutivité des applications de son périmètre. - Pilote l’équipe de développement. - Supervise le déroulement du projet et en assure le reporting. - Organise la maintenance à venir. - Garantit la meilleure adéquation qualité / coût / délai. - Assume le rôle de Scrum Master de l’équipe. Les prestations sont réalisées dans le respect des jalons du projet, de la charge, des SLA, des politiques et standards de la DSI, du cadre technique en place, en collaboration avec l’ensemble des acteurs SI et métier et en s’appuyant sur le patrimoine documentaire existant. Livrables attendus (liste non exhaustive) - Reporting (suivi des phases Design / Build / Test, points d’attention, etc.). - Contribution à la documentation technique (études d’impacts, spécifications, description et configuration des environnements, modèles de données, XSD, WSDL, etc.). - Livraison des packages applicatifs développés par l’équipe. - Contribution au dossier de préparation de mise en production (rédaction / contribution aux documents suivants : résultats des tests de performance, bilan des tests, PTI, PTE, etc.). Compétences requises Compétences techniques (caractère obligatoire sauf mention contraire) : - Contribution (relecture / mise à jour) aux spécifications techniques, contrats d’interfaces, MCD, MPD, flux, et à la gestion des modes dégradés (niveau 3 – spécialiste). - Architecture hexagonale (niveau 3 – spécialiste). - Intégration : connaissance de la gestion de l’intégration d’une application au sein d’un SI (interfaces inter-applicatives, formats pivots, Kafka, web services, API, etc.) (niveau 3 – spécialiste). - Langages de programmation web et frameworks (niveau 2 – maîtrise) : • Angular 17+ • TypeScript / JavaScript • CSS • Java 17+ • Spring, Spring Boot 3 • Spring JPA, Spring Kafka, Spring Batch, Spring Web, Spring Security - Connaissance et mise en place de micro-services (niveau 2 – maîtrise). - Bus d’échange : Apache Kafka (niveau 2 – maîtrise). - Usine logicielle : Git, GitLab, GitLab CI, SonarQube (niveau 2 – maîtrise). - Base de données : PostgreSQL, langage SQL, Hibernate (niveau 3 – spécialiste). - REST / JSON (niveau 3 – spécialiste). - Sécurité applicative (niveau 3 – spécialiste).
Freelance

Mission freelance
Data Analyste énergie flux ETL/ELT : Localisation : Saint-Denis/ko

Publiée le
ETL (Extract-transform-load)

6 mois
400-420 £GB
Saint-Denis, Île-de-France
Télétravail partiel
Data Analyste énergie flux ETL/ELT : Localisation : Saint-Denis Date de début : 05/01/2026 Data Analyst expérimenté , idéalement avec expérience dans : la qualité et fiabilisation des données , les flux ETL/ELT ou intégrations multi-sources, le domaine énergie (ENEDIS/GRDF, compteurs, data énergie bâtimentaire) serait un plus, rédaction d’expressions de besoins, interactions avec DSI, compréhension architectures data. Compétences clés : SQL, ETL/ELT, gouvernance data, structuration et documentation des données, contrôle qualité, architecture fonctionnelle simple. Objectif de la mission Assurer la mise en qualité de la donnée énergétique et mettre en place les flux de data entre les outils internes de gestion de l’énergie (ConsoNG, eVision, Portail de Management de l’Énergie…). Périmètre opérationnel Le consultant interviendra sur : Définition et documentation des nomenclatures de compteurs et sous-compteurs Intégration de nouveaux objets énergétiques dans ConsoNG : → sous-compteurs, panneaux photovoltaïques, IRVE Participation aux programmes Linky (ENEDIS) et Gaspar (GRDF) → fiabilisation des données et échanges avec les distributeurs Mise en place et contrôle des flux inter-outils data Rédaction des expressions de besoins fonctionnels pour la DSI Mise en œuvre de règles de : contrôle d’accès aux données validation des données supervision du cycle de vie des données gestion des versions et historisation Livrables attendus Flux data inter-outils opérationnels Données énergétiques affichées de manière cohérente dans le Portail de Management de l’Énergie Documents fonctionnels et règles de qualité / gouvernance data Profil recherché Data Analyst expérimenté , idéalement avec expérience dans : la qualité et fiabilisation des données , les flux ETL/ELT ou intégrations multi-sources, le domaine énergie (ENEDIS/GRDF, compteurs, data énergie bâtimentaire) serait un plus, rédaction d’expressions de besoins, interactions avec DSI, compréhension architectures data. Compétences clés : SQL, ETL/ELT, gouvernance data, structuration et documentation des données, contrôle qualité, architecture fonctionnelle simple.
Freelance

Mission freelance
Expert Azure Data Factory F/H - 3 mois

Publiée le
Azure Data Factory
ETL (Extract-transform-load)

3 mois
500-600 €
Saint-Denis, Île-de-France
Notre client dans le secteur Assurance recherche un Expert Technique Azure Data Factory H/F Descriptif de la mission: Offre de mission – Expert Technique Azure Data Factory / Data Engineering – Secteur Assurance Contexte de la mission Au sein d’un grand acteur du secteur de l’assurance, l’Expert Technique Azure Data Factory (ADF) intervient dans le cadre de la modernisation des plateformes data et de la migration vers un écosystème cloud Microsoft Azure. Il contribue à la conception, l’industrialisation et l’optimisation des flux de données nécessaires aux usages métier : tarification, souscription, actuariat, gestion des sinistres, reporting réglementaire et analyse de risques. Missions principales 1. Architecture & conception des flux data - Concevoir et optimiser des pipelines Azure Data Factory adaptés aux besoins métier. - Définir l’architecture cible des flux d’intégration et de transformation dans un environnement Assurance. - Participer à la mise en place d’une architecture Data Lakehouse (Azure Data Lake Storage, Delta Lake, Synapse). - Garantir la résilience, la scalabilité et la conformité des traitements. 2. Développement & industrialisation - Développer des pipelines ADF (ingestion, orchestration, transformation). - Implémenter des Data Flows, du mapping et des transformations complexes. - Automatiser les déploiements CI/CD avec Azure DevOps. - Intégrer les solutions avec l’écosystème data : Azure Databricks, Synapse Analytics, SQL, APIs, etc. 3. Optimisation & performance - Optimiser les traitements pour supporter des volumes importants (données contractuelles, sinistres, historiques). - Mettre en place des mécanismes d’alerting, monitoring, retry et gestion d’erreurs. - Conduire des analyses de performance et formuler des recommandations d’améliorations. 4. Gouvernance & sécurité - Contribuer à la mise en place des bonnes pratiques de sécurité et de conformité RGPD. - Gérer les accès via Azure AD, Key Vault, Private Endpoints. - Documenter les flux, les métadonnées et les règles de gestion. 5. Support technique & expertise - Conseiller les équipes Data, AMOA et Métiers Assurance sur les meilleures solutions cloud. - Assurer un rôle de référent sur Azure Data Factory et les briques d’intégration data. - Accompagner les équipes dans leur montée en compétence. Profil / compétences recherchées Compétences techniques obligatoires - Maîtrise approfondie d’Azure Data Factory (pipelines, triggers, integration runtime, Data Flows). - Très bonne connaissance d’Azure Data Lake Storage (ADLS Gen2). - Expertise en Azure SQL, Synapse Analytics, Azure Functions. - Pratique des environnements CI/CD Azure DevOps. - Maîtrise du SQL avancé et de l’optimisation de requêtes. - Connaissance des enjeux du secteur de l’assurance : données contractuelles, sinistres, référentiels, réglementaire. Compétences nice to have - Notions de Databricks / PySpark. - Connaissance des modèles Data Vault / Lakehouse. - Expérience avec Power BI ou des outils de visualisation. - Compréhension des normes Solvabilité II, IFRS 17, des risques et de l’actuariat. Compétences / Qualités indispensables: Maîtrise approfondie d’Azure Data Factory Anglais courant
Freelance

Mission freelance
Consultant Maximo GMAO : /ko

Publiée le
Gestion de maintenance assistée par ordinateur (GMAO)

6 mois
400-440 £GB
Saint-Denis, Île-de-France
Télétravail partiel
Consultant Maximo GMAO : Saint Denis 2 jours sur site - 2 profiles (Profile 1 : Expert Recette (tests complexes & partenaires externes) Profil 2 : CDP AMO GMAO : Expert Reprise de Données / Bascule) Profile 1 : Expert Recette (tests complexes & partenaires externes) Mission Piloter et exécuter des phases de recette complexes. Travailler avec plusieurs partenaires externes. Participer à la stratégie de recette, à la définition et à l’exécution des campagnes (via XRAY). Contribuer aux tirs de performance, aux bascules, au déploiement. Compétences clés GMAO IBM Maximo (Manage, ACM, Transportation, MFA – versions 7 & 9 impératif) Gestion de tests : stratégie, plans, exécution, CR, anomalies Outils : JIRA, Confluence, XRAY Connaissance SQL/JAVA/XML appréciée Expérience SNCF (bonus) et maintenance ferroviaire (fortement souhaitée) +5 ans en conception fonctionnelle SI Capacité à challenger la MOE, animer des ateliers, produire des spécifications générales & détaillées Profil 2 : CDP AMO GMAO : Expert Reprise de Données / Bascule Mission Gérer la reprise d’un volume massif de données issues d’outils de plus de 10 ans. Assurer performance, qualité, nettoyage et organisation du chantier de reprise. Optimiser les blackout / temps d’indisponibilité (objectif : quasi 24/7). Maîtriser les bascules, bascules à blanc, flux et référentiels applicatifs. Utilisation des outils natifs et scripting SQL. Compétences clés Très forte expertise en reprise de données & data migration en environnement contraint. Connaissance des processus de reprise, nettoyage, tests de cohérence. Capacité à prendre du recul, planifier, sécuriser la bascule. Compétences Maximo v7 & v9 également nécessaires. SQL indispensable, compréhension des flux inter-applicatifs. Appétence architecture / sécurité SI valorisée. ---------- Compétences transverses (communes aux deux profils) Compétences techniques Séniorité sur IBM Maximo (obligatoire) Suivi des tickets, reporting, planification Suite Office, GANTT JIRA / Confluence / XRAY SQL / JAVA / XML Compétences fonctionnelles Connaissance maintenance ferroviaire +5 ans en conception fonctionnelle Capacité de synthèse, alerte, communication claire Responsabilités principales (communes) Étude de l’existant & analyse des processus métier Recueil des besoins & animation d’ateliers Analyse d’impacts, modélisation, maquettage Rédaction des spécifications (générales & détaillées) Gestion des relations SI partenaires (flux, impacts) Préparation de contenu de versions & suivi Participation aux instances projet (COPROJ…) Appui aux chantiers transverses : performance, recette, bascule, déploiement Contribution aux bascules opérationnelles (astreintes possibles) Livrables attendus Ateliers (préparation, animation, comptes-rendus) Spécifications fonctionnelles (générales + détaillées) Matrices d’impacts fonctionnels Campagnes de recette XRAY (définition + mise à jour) Scénarios fonctionnels de performance Plan de bascule / contribution aux bascules à blanc Tests & intégration avec SI partenaires
Freelance

Mission freelance
CDP AMO GMAO /ko

Publiée le
Gestion de maintenance assistée par ordinateur (GMAO)

6 mois
400-440 £GB
Saint-Denis, Île-de-France
Télétravail partiel
CDP AMO GMAO : Saint Denis 2 jours sur site Profile 1 : Expert Recette (tests complexes & partenaires externes) Mission Piloter et exécuter des phases de recette complexes. Travailler avec plusieurs partenaires externes. Participer à la stratégie de recette, à la définition et à l’exécution des campagnes (via XRAY). Contribuer aux tirs de performance, aux bascules, au déploiement. Compétences clés GMAO IBM Maximo (Manage, ACM, Transportation, MFA – versions 7 & 9 impératif) Gestion de tests : stratégie, plans, exécution, CR, anomalies Outils : JIRA, Confluence, XRAY Connaissance SQL/JAVA/XML appréciée Expérience SNCF (bonus) et maintenance ferroviaire (fortement souhaitée) +5 ans en conception fonctionnelle SI Capacité à challenger la MOE, animer des ateliers, produire des spécifications générales & détaillées Profil 2 : CDP AMO GMAO : Expert Reprise de Données / Bascule Mission Gérer la reprise d’un volume massif de données issues d’outils de plus de 10 ans. Assurer performance, qualité, nettoyage et organisation du chantier de reprise. Optimiser les blackout / temps d’indisponibilité (objectif : quasi 24/7). Maîtriser les bascules, bascules à blanc, flux et référentiels applicatifs. Utilisation des outils natifs et scripting SQL. Compétences clés Très forte expertise en reprise de données & data migration en environnement contraint. Connaissance des processus de reprise, nettoyage, tests de cohérence. Capacité à prendre du recul, planifier, sécuriser la bascule. Compétences Maximo v7 & v9 également nécessaires. SQL indispensable, compréhension des flux inter-applicatifs. Appétence architecture / sécurité SI valorisée. ---------- Compétences transverses (communes aux deux profils) Compétences techniques Séniorité sur IBM Maximo (obligatoire) Suivi des tickets, reporting, planification Suite Office, GANTT JIRA / Confluence / XRAY SQL / JAVA / XML Compétences fonctionnelles Connaissance maintenance ferroviaire +5 ans en conception fonctionnelle Capacité de synthèse, alerte, communication claire Responsabilités principales (communes) Étude de l’existant & analyse des processus métier Recueil des besoins & animation d’ateliers Analyse d’impacts, modélisation, maquettage Rédaction des spécifications (générales & détaillées) Gestion des relations SI partenaires (flux, impacts) Préparation de contenu de versions & suivi Participation aux instances projet (COPROJ…) Appui aux chantiers transverses : performance, recette, bascule, déploiement Contribution aux bascules opérationnelles (astreintes possibles) Livrables attendus Ateliers (préparation, animation, comptes-rendus) Spécifications fonctionnelles (générales + détaillées) Matrices d’impacts fonctionnels Campagnes de recette XRAY (définition + mise à jour) Scénarios fonctionnels de performance Plan de bascule / contribution aux bascules à blanc Tests & intégration avec SI partenaires
Freelance
CDI

Offre d'emploi
Consultant BI SISS/C# h/f

Publiée le
C#
Microsoft SSIS

36 mois
Saint-Denis, Île-de-France
Pour notre client, grande compagnie d’assurance, nous recherchons un Consultant/Développeur BI afin de renforcer l'équipe projet MOE sur la conception, le développement et l'intégration de flux critiques entre les systèmes opérationnels (gestion de l'assistance médicale) et les systèmes financiers. Vos missions sont donc les suivantes : Conception et Développement des Flux API : · Concevoir et développer les flux d'échanges (API) entre le système opérationnel de gestion de l’assistance médicale, le middleware, et les systèmes financiers du Groupe. · Assurer l'intégration technique de ces API (REST/SOAP) entre les différentes couches applicatives. · Mettre en place et développer les flux spécifiques requis dans le cadre de la loi de finances, incluant la gestion des factures sortantes et entrantes. Supervision et Fiabilité : · Implémenter un monitoring technique robuste pour assurer la supervision en temps réel et garantir la fiabilité et la performance des échanges de données. Coordination et Qualité : · Collaborer étroitement avec la Cheffe de Projet MOE pour assurer la cohérence des spécifications, le respect des normes de développement et la qualité des livrables. Tests et Correction d'Anomalies : · Réaliser les recettes unitaires (tests techniques). · Participer activement au suivi des recettes métiers et corriger rapidement les anomalies identifiées.

Les questions fréquentes à propos de l’activité d’un Développeur·euse base de données (SQL, PL/SQL, Oracle...)

Quel est le rôle d'un Développeur·euse base de données (SQL, PL/SQL, Oracle...)

Le développeur base de données administre et gère les bases de données de sa clientèle dans le but d’avoir une structuration efficiente de l’information.

Quels sont les tarifs d'un Développeur·euse base de données (SQL, PL/SQL, Oracle...)

Dans un premier temps, le développeur base de données peut prétendre à un salaire annuel de 25 000 €. Mais au fil des années, la profession permet d’acquérir des compétences plus conséquentes et de développer son expérience. Résultat, le salaire d’un développeur base de données peut atteindre 50 000 € par an, surtout s’il a pu acquérir certaines certifications et spécialisations . En moyenne, un développeur base de données facture 400 euros jour en province, et 500 euros en région parisienne.

Quelle est la définition d'un Développeur·euse base de données (SQL, PL/SQL, Oracle...)

Le développeur base de données est un acteur incontournable dans une entreprise. En effet, les données sont aujourd’hui un pilier fondamental, synonyme de performance ou non pour une société. La mission première du développeur base de données consiste à organiser correctement l’information pour que chaque utilisateur puisse disposer d’une cohérence du contenu. Dans ce sens, le développeur rassemble un ensemble de données de la part de sa clientèle qu’il structure dans une ou plusieurs bases de données. C’est un métier informatique nécessitant un excellent sens de l’organisation et une veille permanente pour s’assurer que la base de données soit systématiquement accessible. Par ailleurs, le développeur base de données conseille sa clientèle sur les choix logiciels et sur les outils à déployer pour garantir un accès fonctionnel et rapide.

Quel type de mission peut gérer un Développeur·euse base de données (SQL, PL/SQL, Oracle...)

Comme son nom l’indique, ce métier de l’IT manipule quotidiennement des données plus ou moins conséquentes en fonction de la taille de l’entreprise. En effet, les données occupent un rôle majeur au sein d’une entreprise, il est donc nécessaire que ces différentes données soient maintenues à jour, qu’elles soient gérées avec efficience et qu’elles soient systématiquement accessibles pour les personnes concernées. Lorsque le développeur base de données entre en jeu, il suit l’évolution de ces différentes données et met en place des solutions pour qu’une éventuelle croissance ne vienne pas perturber l’accessibilité des informations. En parallèle, chaque utilisateur doit pouvoir accéder à ces informations à n’importe quel instant. Au quotidien, le métier nécessite une structuration de ces informations en fonction des exigences du client. L’ensemble des données est alors regroupé dans une base qui spécifiquement conçue pour distribuer l’information à la bonne personne. Le développeur base de données s’occupe de vérifier le bon fonctionnement de la base en s’assurant de sa cohérence et de son accessibilité quotidiennement.

Quelles sont les compétences principales d'un Développeur·euse base de données (SQL, PL/SQL, Oracle...)

• Faire preuve de rigueur et de patience pour s’assurer de la bonne structuration des données. • Être capable de travailler en autonomie. • Une bonne aisance relationnelle reste requise pour le travail en équipe. • Une capacité de gestion reste primordiale pour la bonne disposition de la base de données. • Une excellente culture informatique et une veille permanente afin de se tenir au courant des dernières nouveautés. • En parallèle, des connaissances informatiques et une curiosité naturelle. • Bien évidemment, une maîtrise des différents systèmes et des outils concernant la gestion d’une base de données.

Quel est le profil idéal pour un Développeur·euse base de données (SQL, PL/SQL, Oracle...)

• Le profil d’un gestionnaire de données nécessite la maîtrise des différents outils permettant la gestion quotidienne de la base de données. De ce fait, il faut à la fois travailler avec les équipes techniques, mais également travailler en solitaire. • Des connaissances générales supplémentaires restent appréciables, tout comme le fait de disposer d’un bon niveau d’anglais, car de nombreux outils fonctionnent dans la langue de Shakespeare. • Les capacités de gestion, l’organisation, l’autonomie et la rigueur sont également des qualités appréciées dans le profil d’un développeur base de données.
23 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Saint-Denis, Île-de-France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous