Trouvez votre prochaine offre d’emploi ou de mission freelance Data engineer à Paris

L’ingénieur DATA établit, développe et agence les outils informatiques et les fondements correspondant à l’analyse des données par les équipes de DATA Scientist. Il prépare l’architecture pour recevoir les données. En résumé, il crée de grands bassins de données pour les entreposer et les tester. Cela permet aux DATA Scientist d’effectuer leur travail dans de bonnes conditions. L’ingénieur DATA gère les systèmes de traitement des bases de données de grande envergure. L’ingénieur DATA prend garde à offrir une solution qui garantit l’examen de gros volume de données et offre leur sécurité. Il est le premier acteur de la chaine de traitement des données et veille à ce que tout fonctionne correctement. De nouveaux métiers spécialisé dans le DATA sont créés de nos jours. Afin de traiter ces volumes importants de données stockées dans les plateformes, l’ingénieur DATA gère les popelines de données et veille à ce qu’elles soient bien sécurisées et compréhensibles pour être étudiées par les DATA analyst puis converties par les DATA Scientist afin qu’ils y insèrent des algorithmes. L’ingénieur DATA est un expert en mission de développement de flux de données et en langages techniques comme Javascript, Scala ou Python.
Informations sur la rémunération de la fonction Data engineer.

Votre recherche renvoie 72 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Suivant
Freelance

Mission freelance
Data Engineer (H/F)

CTG
Publiée le
Apache Spark
Cloud
Finance

3 ans
100-600 €
Paris, France

En tant que Data Engineer, vous travaillerez en direct avec le Team Lead, les business analystes et le PO. Vous aurez à cœur de comprendre le business model. Les projets à adresser visent le développement et maintenance de modules de gestion des données de consommation (intégration, transformation et exposition), de contrats, et leur représentation à travers différentes interfaces. Vous interviendrez aussi bien sur de l'analyse de besoin, design, développement, support, maintenance corrective et évolutive. Vous travaillerez dans une équipe auto-organisée en mode agile avec un Product Owner et 3 BA (Business analystes). Les activités de cette équipe couvrent l'analyse, le développement, les tests, le déploiement et le support. Vos activités principales seront : · La montée en compétence sur les process, produits et applications existantes · La compréhension du business et la réalisation de développements en pair avec un responsable fonctionnel · L’analyse et spécifications des besoins et algorithmes · Implémenter les corrections et évolutions en couvrant tous les aspect conception, codage, sécurité, gestion des erreurs, évolutivité, scalabilité, revues de code, testing, intégration continue, ...- · Fournir des services aux utilisateurs avec le plus haut niveau de satisfaction. · Fournir des estimations de charge et délais · Soutenir l'amélioration continue des services. Identifier les goulots d'étranglement et les bugs et définir des solutions à ces problèmes · Rédiger et mettre à jour les documentations · Proposer des solutions innovantes répondant aux problématiques fonctionnelles et techniques. · Travailler en étroite collaboration avec les BA, les utilisateurs, architectes et autres équipes de développement. · Fournir une communication efficace et opportune aux différentes équipes concernées

Freelance
CDI

Offre d'emploi
Data engineer scala spark

CELAD
Publiée le
Apache Spark
Scala

2 ans
50k-65k €
Paris, France

Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : - Conception détaillée, fonctionnelle et technique. - Développements SPARK / SCALA - Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. - Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. - Packaging et déploiement en pre-production et production. - Optimisation des traitements afin de garantir la qualité de service standards du DWG. - Mise en œuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. - Mise en service et accompagnement au déploiement. - Suivi des environnements. Le consultant devra travailler en étroite collaboration avec le Chef de Projet, responsable du lot et l'équipe de développement du Programme. Une connaissance d'Oracle est nécessaire Une expérience >5 ans sur des technologies SPARK & SCALA est nécessaire Une connaissance de contexte technologique similaire est un plus

Freelance

Mission freelance
Data Engineer - Risque de Crédit

NEXORIS
Publiée le
Data analysis

6 mois
490-500 €
Paris, France

Notre client, un groupe bancaire, recherche un consultant techino-fonctionnel, Data engineer risque de crédit (H/F). Renforcement de l'équipe pour le projet Surveillance Crédit, axé sur la production de POC, l'analyse métier, et le développement de solutions tactiques. Tâches et activités de la mission - Contribution à la production de POC (Proof of Concept). - Réalisation d'analyses métier spécifiques au risque de crédit. - Développement de solutions tactiques pour la gestion et l'analyse de données. Livrables - POCs fonctionnels pour nouvelles initiatives. - Rapports d'analyses métier détaillés. - Solutions tactiques développées et implémentées.

Freelance

Mission freelance
Data Engineer Expérimenté (H/F) – Paris

Espace Freelance
Publiée le
Apache Airflow
AWS Cloud
PySpark

3 mois
100-700 €
Paris, France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Data Engineer Expérimenté (H/F) – Paris Mission à pourvoir en régie sur Paris Présence sur site : 3 jours / semaine Compétences obligatoires : Python ; AWS ; PySpark ; Airflow ; Github ; anglais courant Votre mission : - Apporter une expertise sur la constitution des datasets et KPIs - Accompagner l’équipe sur les meilleurs choix techniques - Assurer la qualité des traitements et des données - Comprendre un modèle de données et s’en servir - Maitriser et contrôler la qualité de code - Mettre en place des indicateurs de mesure de qualité sur chaque développement REF : EFP/GMCPP/ODVB Plus d’offres sur :

Freelance
CDI

Offre d'emploi
Data Engineer Python / AWS / Databricks / Spark

GRADIANT
Publiée le
AWS Cloud
Databricks
PySpark

3 ans
10k-60k €
Paris, France

Nous recherchons pour l'un de nos clients, une entreprise du CAC 40, un(e) Data Engineer senior pour intégrer une mission longue de 3 ans. Le rôle du Data Engineer senior dans ce projet impliquera la conception et la mise en œuvre des composants de plateforme suivants : • Ingestion de données • Traitement et normalisation des données. • Distribuer les données aux différentes parties prenantes. • Construire et améliorer un cadre commun comprenant la surveillance, le CI/CD, les tests, les performances, la résilience, les pratiques de développement et la qualité du code…

Freelance

Mission freelance
Consultant(e)s Data Engineer Senior (H/F)

DIGITAL PARTNERS FRANCE
Publiée le

Paris, France

Jeune entreprise innovante, Digital Partners a pour ambition de devenir un acteur incontournable du digital, et ce dans l'ensemble de ses marchés. Digital Partners intervient en transformation digitale, efficience opérationnelle et data analytics auprès de sociétés de tous secteurs d'activité. Dans le cadre de notre développement nous recherchons un.e Consultant(e) Data Engineer Senior (H/F). 2 Data Engineers Seniors Expérience : Entre 8 et 15 ans Localisation : Noisy le Grand Démarrage : 01/06/2024 Contexte de la mission : - Développer de nouvelles fonctionnalités et corriger les anomalies sur l'application hébergée par la plateforme data groupe : - Respecter la qualité attendue par le Client - Utiliser les technologies autorisées par le Client - Participer activement aux cérémonies agile organisées par la Squad : - Daily meeting - Sprint planning - Sprint review (démonstration du développement réalisé) - Sprint rétrospective Livrables attendus : - Code développé dans le respect du cadre contractuel et de la qualité attendue - Compte-rendu d'activité mensuel Compétences demandées : Techniques : - Développement Scala/Spark - Maîtrise de l'environnement technique (AWS Databricks, AWS S3) - Expériences sur la qualité logicielle (revue de code, conformité aux critères de qualité SONAR, tests automatisés) - Connaissance de Power BI (Azure) est un plus Fonctionnelles : - Méthode Agile - Expérience sur des projets de technologies similaires - Connaissance du domaine Data - Expérience de travail sur des projets en équipe, avec la capacité de solliciter son écosystème au bon moment Profil recherché : Nous recherchons des professionnels autonomes, méthodiques et rigoureux avec une bonne aptitude relationnelle. Les candidats doivent savoir s'organiser, anticiper, prioriser et respecter les délais. Ils doivent également avoir une capacité d'analyse, de propositions et de conseils, tout en prenant des initiatives et en étant capables d'identifier les difficultés pour remonter les bonnes alertes.

CDI

Offre d'emploi
Data Engineer (H/F)

Harry Hope
Publiée le

55k-90k €
Paris, France

Notre client, société en pleine croissance, spécialisé dans le domaine de la Big Data, recherche des Consultants Data Engineer ! Participez à cette aventure et rejoignez une formidable équipe. Vos missions principales seront diversifiées, comprenant notamment : - Participation aux processus d'avant-vente : Vous contribuerez à l'élaboration des propositions techniques, mettant en avant votre expertise pour répondre aux besoins des clients. - Qualification technique des prestataires : Vous participerez activement à l'évaluation et à la sélection des prestataires, garantissant un partenariat de qualité. - Direction et coordination des projets : Vous dirigerez et coordonnerez la conception et la mise en oeuvre des projets, assurant leur réussite technique. - Documentation technique : Vous élaborerez, au besoin, des dossiers d'architecture, d'installation et d'exploitation, assurant une traçabilité et une compréhension optimale des solutions mises en place. - Participation active aux développements : Vous apporterez votre expertise en contribuant directement aux développements dans le cadre des projets. De manière plus étendue, vous aurez l'opportunité de : - Enrichir les bonnes pratiques : Vous contribuerez à l'évolution et à l'amélioration des bonnes pratiques d'architecture et de développement dans le domaine du Big Data. - Veille technologique : Vous réaliserez une veille constante sur les avancées technologiques du secteur, assurant ainsi la pertinence des solutions proposées. - Formation technique : Vous élaborerez des supports de formation technique pour nos clients et/ou nos consultants juniors, partageant ainsi votre savoir-faire. - Animation du pôle technique : Vous participerez activement à l'animation du pôle technique favorisant un environnement collaboratif et innovant.

Freelance
CDD

Offre d'emploi
DATA ENGINEER- POWER BI ANALYSIS H/F

SMARTPOINT
Publiée le
Microsoft Power BI

12 mois
60k €
Paris, France

La prestation consiste à contribuer à/au(x) :  Cadrage analyse des besoibs et chiffrage des projets BI (et validation) et assistance et expertise dans la mise en plave de la stratégie et solution technique.  L'assistance et l'expertise sur l’architecture BI tant sur des aspect CUBE que Power BI  La conduite du changement dans la mise en œuvre et l’uniformisation des pratiques en terme de BI  La définition des normes et standards de qualité édictés (qualité de code, sécurité, performance, build automatique, analytics)  La définition du bon niveau de la documentation technique et mise à jour associée  Diverses étapes de développements notamment sur les développements complexes : chiffrage, conception et developpement, spécifications techniques, mise en place, tests, déploiement, revue de code  L'analyse des besoins BI avec les métiers Les livrables attendus sont : Specification des données nécessaires Mise en place de la pipeline nécessaire dashboard Power BI développés et optimisées Assistance aux utilisateurs dans la prise en main du dashbaord

Freelance

Mission freelance
Data Engineer - Spécialiste Singlestore

NEXORIS
Publiée le
Analyse

6 mois
540-550 €
Paris, France

Notre client, entité bancaire recherche un Ingénieur Data (H/F), démontrant un vif intérêt pour les technologies de pointe, en particulier Singlestore. La mission concerne : - La mise en place, collecte et mise à disposition des données au sein de l’entreprise - L'industrialisation et la mise en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent. Activités principales : - Acheminement de la donnée - Mise à disposition de la donnée aux équipes utilisatrices - Mise en production de modèles statistiques - Suivi de projet de développement - Développement job spark - Traitement et ingestion de plusieurs formats des données - Développement des scripts - Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données - Développement des moyens de restitution via génération de fichier et ou API & Dashboarding - Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers - Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) - Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP - Participer à la conception, mise en place et administration de solutions Big Data - Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka - Normalisation et agrégation des données afin de produire les rapports sous forme de Business View

Alternance

Offre d'alternance
Data Engineer / Data Analyst (H/F) - Alternance

IEF2I
Publiée le
Python

15 mois
10k-42k €
Paris, France

Notre école recherche activement pour le compte de l'un de ses clients un grand groupe, plusieurs Data Engineer / Data Analyst / Data Scientist en alternance pour une durée de 15 ou 24 mois dans le but de suivre en parallèle une formation en Master DATA Engineer Attention: Partenariat exclusif avec notre école Missions : Effectuer l’intégration et la construction des offres Data & IA ; Accompagner l’équipe dans la construction, la structuration et l’intégration des offres Data & IA ; Automatiser et industrialiser des solutions ; Intégrer les offres de solutions de monitoring, alerting, restriction de droits ; Effectuer la veille technologique autour de la Data, l’IA, POC, tests de performances et comparaisons de solutions.

Freelance

Mission freelance
Data Engineer Databricks / Python

VISIAN
Publiée le
Databricks
Informatica
Python

1 an
100-550 €
Paris, France

Data Engineer confirmé ayant une expérience de 3 à 5 ans sur des projets de tranformation de données dans un environnement cloud. Le candidat sera responsable de migrer des flux ETL développés sur Informatica vers Databricks. Une connaissance d'informatica et AWS est très appréciée. Le candidat doit maitriser le langage SQL et Python et avoir une bonne culture Data des best practices en terme de nettoyage, de transformation et modélisation de données Une certification sur Databricks est également fortement appréciée

Freelance

Mission freelance
Data Engineer (H/F) - Paris

Mindquest
Publiée le
Apache Kafka
Apache Spark
Cassandra

6 mois
700 €
Paris, France

Ingestion des données sources via NIFI dans des tables de travail Cassandra ou en parquet sur AWS S3 Développement des Traitements Spark/Scala en lots des données sources ingérées Traitement au quotidien des nouvelles données clients (ajout nouveaux clients Enrichissement au quotidien des données des clients avec des fichiers de scoring et de segmentation (fournis par un autre projet) Traitement toutes les 8 heures des nouvelles ventes avec notamment la mise à jour des ventes auditées ainsi que l’enrichissement des ventes avec les données des clients Ingestion toutes les 8 heures des données des ventes dans Druid Ajout et mise à jour des nouveaux produits des marques avec leur description, leur taille, leurs stocks …. Traitement en temps réel via Kafka/Spark des données sources fournies par les marques dans les topics dédiés : Enrichissement des données des produits des différentes marques en temps réel avec les informations des stocks, des prix Mise à jour temps réel des données des ventes Mise à jour temps réel des données clients Mise à jour des commandes clients Anonymisation des informations clients (RGPD) Mise à jour des stocks disponibles en magasin Exposition des informations des produits en transit (magasin d’origine, magasin destination) afin que les utilisateurs de Luce puissent estimer leurs dates de livraison Traitement et Stockage des données dans Apache Solr et Cassandra Exposition des données traitées dans une API nodejs à travers Cassandra et Solr Ingestion des données des ventes et commandes sur Apache Druid via NIFI Mise en place de tests automatiques afin d’éviter les régressions suite aux nouvelles évolutions Développement de tests unitaires avant déploiement Garantie de la cohérence des données Planification des heures de lancement des différents traitements afin d’éviter d’avoir des données corrompues Déploiement des différents traitements Spark via Jenkins/Livy dans les environnements dédiés Monitoring des Jobs Spark via Yarn et Spark UI avec un système d’alerting via Slack en cas de problème durant les traitements Mise en place de logs qui seront ensuite déposés dans ElasticSearch afin de faciliter la résolution et la recherche des bugs Optimisation des différents traitements Data (optimisation du code Spark, des traitements NIFI) Migration de tous nos workflows NIFI, traitements de données en lots/ temps réel Spark sur Amazon AWS Migration de l’api ainsi que des tables et collections utilisées dans Cassandra Environnement sur AWS Ordonnancement des tâches via Airflow/Python, gestion des différentes dépendances entre les traitements Mise à jour d’une librairie Airflow pour le lancement de nos Jobs Sparks ainsi que le monitoring (vérification des statuts des traitements). Mise en place des capteurs (sensors) nécessaires pour le suivi des statuts des traitements Mise à jour d’une librairie générique Spark pour les jobs d’ingestion via parquet/csv/json

Freelance

Mission freelance
DevOps Data Engineer

Phaidon London- Glocomms
Publiée le
AWS Cloud
DevOps
Python

1 an
500-650 €
Paris, France

Je cherche à parler à des ingénieurs DevOps ayant une expérience Data pour travailler sur un projet pendant 12 mois à Paris (Centre). Ce rôle est fortement axé sur Python (scripts, automatisation) et les pipelines de données. Il existe également Cloud AWS, donc une expérience avec les services AWS (EC2, S3, Lambda, etc.) est un atout important pour ce poste. - Ingénieur de données DevOps - Paris Centre - Durée de 12 Mois - Date de début : Mai - TJM: 500-650EUR Le Role: - Développer des scripts pour automatiser les tâches de données - Travailler sur les pipelines de données pour garantir la qualité et la fiabilité des données - Effectuer une analyse des systèmes de données existants et fournir des solutions pour augmenter les performances et la disponibilité - Aider à la conception et à l’architecture des systèmes de données garantissant l’évolutivité et la résilience Profil idéal : - Expérience avérée en tant qu’ingénieur de données avec un fort accent sur la fiabilité des données - Solide compréhension des principes d’ingénierie des données, des technologies de traitement des données et des principes ETL - Maîtrise des scripts Python, SQL et Shell - Familiarité avec Spark et Kafka - Anglais courant

Freelance

Mission freelance
Data Engineer (H/F)

CTG
Publiée le
Google Cloud Platform
Python
SQL

3 ans
100-590 €
Paris, France

En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Freelance

Mission freelance
data engineer - Dataiku python

Gentis Recruitment SAS
Publiée le

2 ans
Paris, France

2.1 Le contexte Pour accroître sa compétitivité et poursuivre son développement dans les meilleures conditions, GEMS IS investit de manière significative dans son système d’information. Au sein de l’équipe Digital & Data Accelerator nous développons des outils et applications et accompagnons l’ensemble des équipes dans leur digitalisation, notamment au travers de Dataiku & Amazon Web Services. 2.2 Objet du service Le service sera réalisé au sein de l’équipe Digital & Data Accelerator située à Bruxelles ou à Paris (avec des déplacements réguliers à Bruxelles). 2.3 Activités Les activités principales sont : - Administration de la plateforme Dataiku - Développement de plugins Dataiku (en python) - Mentorat de nos utilisateurs (Data Analyst, Data Engineers, Data Scientists) sur la plateforme Dataiku - Support de niveau 1 sur la plateforme Dataiku Activités secondaires : - Implémentation de cas d’utilisation de données à travers Dataiku

Freelance

Mission freelance
DATA ENGINEER SPARK / SCALA

UCASE CONSULTING
Publiée le
Apache Spark
Scala

3 ans
100-600 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un data engineer spark / scala. Mission : Livrables n 1 : Sprint n 1 + Lot 1 : développement des US et tests associés ; + Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d’exploitation ; + Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; + Lot 4 : Mise en place du monitoring ; LE PROFIL RECHERCHE Compétences métiers & outils : Les compétences technologiques attendues sont : + Indispensables : maîtrise de l’API Scala Spark (batch principalement), maîtrise des techniques d’optimisation Spark, expérience dans le traitement de volumétries importantes / complexes, développement et bonnes pratiques Scala, build Maven, travail en environnement cloud (idéalement Azure) + Appréciées : écosystème Databricks, développement d’API HTTP, expérience sur la stack ELK Compétences transverses + Aisance relationnelle + Esprit d’équipe et d’adaptabilité + Esprit de synthèse + Rigueur et esprit d’analyse + Autonomie + Force de proposition + Vous avez le sens des priorités et la capacité à gérer les délais + Vous aimez le travail en mode multi-projets + Appétence client, besoin métier et compréhension du fonctionnel + Mentoring et partage de connaissances

Suivant

Les questions fréquentes à propos de l’activité d’un Data engineer

Quel est le rôle d'un Data engineer

L’ingénierie data, appelé également Data Engineer, est l’un des métiers du Big Data. Pour rappel, le Big Data est une solution qui permet à chacun d’avoir accès à des bases de données géantes, et ce, en temps réel. L’ingénieur data est donc l’un des éléments clés dans la chaîne de traitement de données massives pour le compte d’une firme. Ce spécialiste de la data s’occupe de la définition, du développement et de la mise en place des outils ainsi que des infrastructures adaptées aux équipes pour mieux analyser les données. En bref, c’est un expert au plus proche de la donnée.

Quel sont les tarifs d'un Data engineer

Son salaire dépend de plusieurs facteurs : la taille de l’entreprise, son lieu géographique ou encore l’importance des responsabilités. Un ingénieur DATA débutant aura un salaire d’environ 4500 €. Celui d’un ingénieur DATA expérimenté sera d’environ 6500 €. Un Data Engineer perçoit en moyenne un TJM de 500 euros. Ce salaire est ensuite amené à évoluer en fonction de ses compétences, de la structure de l’entreprise.

Quel est la définition d'un Data engineer

L’ingénieur data est le premier acteur de la data. C’est un métier d’avenir car nous savons tous aujourd’hui que les technologies big data sont en plein essor. C’est pour cette raison que les entreprises recrutent beaucoup dans ce secteur. Les analystes, les architectes de données, les experts et les ingénieurs de données… ce sont quelques exemples de postes très recherchés de nos jours. Force est de constater que les sociétés ont besoin d’une base informatique solide afin de stocker en toute sécurité leurs données. D’où l’utilité de recruter un ingénieur data pour gérer tout ce réseau.

Quel type de mission peux gérer un Data engineer

L’ingénieur data est un professionnel au sein de l’entreprise responsable de la gestion des données capitales de la société. Il s’occupe de la préparation de la structure pour accueillir correctement les données. Il conçoit, construit et intègre les données de la firme. Il doit s’assurer que ces dernières sont stockées convenablement et en sécurité. Parmi ses missions principales, il gère également les systèmes de traitement ainsi que des bases de données importantes. Il garantit le bon fonctionnement de ces données. Pour résumer, l’ingénieur data élabore les réseaux, intègre les données et se charge de leur nettoyage.

Quelles sont les compétences principales d'un Data engineer

Pour tenir un poste d’un ingénieur data, un large éventail de compétences est nécessaire, surtout techniques. En voici quelques-unes… • Connaître et maîtriser les outils de modélisation. • Maîtriser l’univers du web et des bases de données • Avoir de très bonnes connaissances du codage (python, C/C++, Java…) • Savoir maîtriser les technologies SQL, NoSQL. • Avoir une bonne expertise en informatique, mathématiques et statistiques • Maîtriser l’anglais technique • Savoir communiquer (un bon sens du relationnel)

Quel est le profil idéal pour un Data engineer

Parmi les qualités indispensables chez un ingénieur data, on peut citer les suivantes : • Force de proposition • Une bonne aisance relationnelle • Rigueur • Sens de l’organisation • Sens de la qualité • Esprit d’équipe • Réactivité • Esprit analytique et de synthèse
72 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous