Trouvez votre prochaine offre d’emploi ou de mission freelance Data Lake

Votre recherche renvoie 54 résultats.
Freelance

Mission freelance
Consultant Talend (H/F)

HOXTON PARTNERS
Publiée le
MySQL
Talend

9 mois
400-550 €
Moselle, France

Nous recherchons pour le compte de l'un de nos clients un consultant talend sur un format de pré-embauche : Les missions : Concevoir et développer des flux ETL avec Talend Intégrer, transformer et consolider des données issues de sources multiples Participer à la modélisation et alimentation du data warehouse ou data lake Optimiser et maintenir les processus d’intégration existants Collaborer avec les équipes métiers pour analyser les besoins et garantir la qualité des données

Freelance

Mission freelance
Expert Azure Data - Asset Management & Cloud Transformation

STHREE SAS pour HUXLEY
Publiée le

9 mois
600 €
Île-de-France, France

We have a current opportunity for a Azure Data Factory Expert on a contract basis. The position will be based in Paris. For further information about this position please apply. Vous intervenez en tant qu' expert Azure Data Factory pour accompagner la transformation de l'entreprise : injection, stockage, traitement et analyse des données via les modules Azure (ADF, Synapse, Data Lake Gen2, Blob Storage, SQL Database, Analysis Services). Une expertise en automatisation des tests et en analyse de données assistée par IA serait un plus. Vous serez force de proposition pour faire évoluer le DataHub existant, en intégrant les données issues de la solution cible, tout en répondant aux exigences métier (qualité de la donnée, time to market, facilité d'intégration via SQL, API, cubes…). Vous collaborerez avec les équipes IT et Business Analyst dans un environnement Agile , en coordination avec les autres équipes impliquées dans le projet de transformation.

Freelance

Mission freelance
Expert Data Azure – Azure Data Factory / Finance

HIGHTEAM
Publiée le
Azure
Azure Data Factory
Databricks

3 ans
550-600 €
Île-de-France, France

Pour l’un de nos clients grand compte dans le secteur de la Finance , nous recherchons un Expert Data Azure , spécialisé dans Azure Data Factory , afin de renforcer l’équipe Data & Analytics . Conception, développement et optimisation des flux de données sur la plateforme Azure : Injection , stockage , traitement , analyse Outils : ADF , Azure Synapse , Data Lake , SQL Data base , Analysais Services Challenger l'existant pour faire évoluer le Data Hub interne , dans une logique de migration progressive vers la solution cible Garantir la qualité des données , le time to market et la facilité d’intégration (SQL, API, Cube OLAP…) Être force de proposition sur les outils, modèles de données et processus à mettre en place Participer à la mise en œuvre de tests automatisés et proposer des approches d’ analyse avancée des données via l’ IA Collaborer avec les équipes IT, Data, Business Analystes , dans un environnement Agile à l’échelle

Freelance

Mission freelance
Data Engineer AWS Sénior

Cherry Pick
Publiée le
Amazon S3
AWS Cloud
CRM

24 mois
550-600 €
Paris, France

Notre client recherche un Data Engineer senior pour concevoir et maintenir des pipelines de réplication et de traitement de données dans un environnement cloud AWS à grande échelle. Ce poste s’inscrit dans un programme de transformation data visant à développer des applications qui enrichissent l’expérience client et rendent les équipes métiers autonomes dans l’exploitation des données. L’environnement technique intègre : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : moteur de recommandation, chatbot IA, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Concevoir, développer et maintenir des pipelines ETL/ELT pour la réplication et le traitement de données issues de sources hétérogènes. Connecter et intégrer les données depuis différentes bases (Exadata, Oracle, etc.) vers AWS. Mettre en œuvre des traitements de nettoyage, mapping, déduplication et enrichissement des données. Collaborer avec les architectes pour appliquer les modèles cibles et les bonnes pratiques de gouvernance data. Automatiser les pipelines via GitLab CI/CD. Concevoir et déployer l’infrastructure avec Terraform, Ansible et Python (IaC). Assurer le monitoring, la qualité et la performance des flux de données. Contribuer aux initiatives FinOps pour optimiser les coûts cloud. Documenter les processus et alimenter les référentiels techniques.

Freelance

Mission freelance
Data engineer senior (AWS/Azure + Databricks)

FF
Publiée le
AWS Cloud
Azure
Databricks

1 an
Paris, France

Bonjour à tous, Démarrage : Début septembre Télétravail : 2 jours par semaine Processus de recrutement : 2 entretiens en visioconférence Lieu de la mission : Paris Description du poste Nous recherchons un Ingénieur Data expérimenté pour développer des pipelines de données robustes, intégrer des sources de données brutes et rendre les données commerciales accessibles à l'ensemble de l'organisation. Responsabilités principales Mettre en place et exécuter le framework et les pipelines de traitement des données Se connecter à diverses sources de données brutes (APIs internes/externes, data lakes cloud, bases de données) pour ingérer les données dans Databricks Mettre en œuvre des transformations de données à grande échelle afin d'automatiser la création de nouvelles données pour l'analytique Construire et gérer des bases de données et solutions de stockage efficaces (SQL/NoSQL) pour organiser des données structurées et non structurées Exposer les données via des APIs, Datamarts, SQL Endpoints, solutions de reporting/dashboards Assurer la qualité, la cohérence et la sécurité des données selon les standards du secteur Développer des APIs REST avec des frameworks web Python tels que FastAPI Travailler au sein d'une équipe projet pluridisciplinaire et multiculturelle, en collaboration avec DevOps, Data Scientists et Chefs de projet Documenter les workflows, modèles de données et configurations de pipelines afin de garantir la transparence et la facilité d'utilisation pour les analystes et parties prenantes Profil recherché Qualifications / Expérience : Master ou Doctorat en Informatique, Data Engineering ou domaine connexe Minimum 8 ans d'expérience en Data Engineering Esprit d'équipe Culture DevOps et mentalité Agile Ouverture d'esprit et capacité à évoluer dans un environnement changeant Communication ouverte et transparente Compétences techniques : Maîtrise de l'ingénierie logicielle en Python, SQL, Databricks, CI/CD, services AWS et Azure Langues : Maîtrise du français et de l'anglais Qualifications souhaitées Expérience avec SAP, données CRM Expérience préalable dans l'industrie de la santé ou pharmaceutique A bientôt,

Freelance

Mission freelance
Data Architect – Core Model CRM

Cherry Pick
Publiée le
Architecture
AWS Cloud
CRM

24 mois
600-650 €
Paris, France

Dans un environnement multi-CRM , l’entreprise souhaite construire un Core Model CRM unifié pour centraliser, harmoniser et valoriser les données clients. Ce modèle sera le socle des usages analytiques, opérationnels et stratégiques. L’un des principaux objectifs du plan de transformation data est de développer des applications qui enrichissent l’expérience client et rendent les équipes métiers autonomes dans l’analyse des données et KPI. Pour atteindre ces objectifs, l’entreprise a déployé un écosystème technologique avancé : Outils et plateformes : AWS, Dataiku, GitLab, Terraform, Snowflake, Braze, IA, Spark, Python, Power BI Architectures : Data Lake, Event-driven, Streaming (ingestion de +100 To/jour) Exemples de projets : chatbot IA, moteur de recommandation, feature store, socle vidéo, plateforme de contenu, partage de données avec partenaires, data self-service Missions 1. Conception du Core Model CRM Analyser les modèles de données existants dans les différents CRM. Identifier les objets métiers communs, divergences et points de convergence. Concevoir un modèle de données central (conceptuel, logique, physique) aligné avec les besoins métiers et techniques. Définir les règles de mapping et de transformation entre les CRM sources et le Core Model. 2. Architecture et intégration Collaborer avec les équipes Data Engineering pour l’implémentation des pipelines d’intégration. Garantir la scalabilité, la performance et la sécurité du modèle. 3. Gouvernance et documentation Documenter le Core Model et ses usages. Participer à la mise en place de la gouvernance des données clients (référentiels, qualité, traçabilité). Assurer la cohérence et l’évolution du modèle dans le temps. 4. Collaboration transverse Travailler avec les équipes CRM, Data, IT et métiers. Animer des ateliers de co-construction avec les entités internes. Former et accompagner les utilisateurs du Core Model.

Freelance
CDI

Offre d'emploi
Expert Azure Data Factory

Management Square
Publiée le
Azure Data Factory
Azure DevOps
Azure Synapse

1 an
65k-70k €
600-650 €
Île-de-France, France

Nous sommes à la recherche d'un(e) : 📌Expert Azure Data Factory - Développement et Intégration : Concevoir et développer des projets d'intégration de données hybrides dans le cloud en utilisant Azure Data Factory. - Gestion du DataHub : Intervenir sur le DataHub maison pour le faire évoluer, en y intégrant des données provenant de la nouvelle solution cible. - Expertise Azure : Mettre à profit son expertise sur les différents modules Azure, notamment ADF, Synapse, Data Lake Gen 2, blob storage, SQL database et Analysis Service. - Automatisation et IA : Une expertise dans l'automatisation des tests et l'utilisation de l'intelligence artificielle pour l'analyse des données est un atout. - Proposition et Amélioration : Être force de proposition pour challenger les solutions existantes et répondre aux exigences du métier tout en gérant les contraintes et opportunités liées à la migration. - Qualité et Efficacité : Préserver la qualité des données, le "time to market" et la facilité d'intégration (SQL, API, CUBE, ...). - Collaboration : Travailler en étroite collaboration avec les membres de l'équipe IT et les Business Analysts dans un environnement Agile (SCRUM).

Freelance

Mission freelance
Consultant BI maitrisant Informatica

CELAD
Publiée le
BI
Informatica

6 mois
420-450 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Nous poursuivons notre développement dans le Sud-Est et recrutons un Consultant BI maitrisant Informatica pour l’un de nos clients situé sur Aix-en-Provence. Dans le cadre d’une mission stratégique au sein d’une DSI, nous recherchons un Consultant BI confirmé pour intervenir sur le décommissionnement de rapports tiers, la structuration de données transverses et la mise en place de traitements optimisés dans un environnement Data Lake. - Vos missions : · Prioriser et piloter les actions de décommissionnement selon la feuille de route. · Analyser les besoins métiers, proposer des solutions techniques et estimer les charges. · Rédiger les spécifications fonctionnelles et techniques. · Concevoir, développer et optimiser les flux de données avec Informatica , dans un contexte à forts volumes. · Participer aux phases de tests et accompagner les mises en production. · Collaborer avec les équipes DataViz (Qlik) pour la réutilisation des données structurées. · Transférer les traitements à l’exploitation (supervision, documentation, accompagnement). · Traiter les incidents et garantir la qualité de service.

Freelance

Mission freelance
Product Owner Data Industrie / pharma

FF
Publiée le
Databricks
IoT

1 an
Paris, France

Bonjour à tous, Mission Poste de Product Owner Data Industrie – secteur pharmaceutique basé à Paris intra-muros, avec 2 jours de télétravail par semaine. Démarrage ASAP. Dans le cadre du déploiement d'une nouvelle plateforme de données, vous piloterez des projets stratégiques liés à la donnée, l'automatisation et l'optimisation des processus industriels. Vous serez en interface directe entre les équipes IT, OT (Operational Technology) et Manufacturing, et interviendrez sur des projets intégrant des technologies cloud (Azure, S3, Databricks), de l'IoT, du MES/SCADA, et des solutions d'analyse temps réel. Principales Responsabilités Piloter des projets data dans un contexte industriel (production, supply chain, qualité…) Coordonner les parties prenantes métier, IT, data et OT tout au long du cycle projet Suivre l'avancement des projets via des outils de gestion (Jira, Confluence, MS Project…) Déployer des solutions d'automatisation et d'analyse industrielle (IoT, Edge computing, Historian...) Contribuer à la définition d'architectures cloud industrielles (Azure, IoT Hub, Data Factory…) Rédiger la documentation projet (spécifications, comptes rendus, etc.) Profil Recherché Formation et Expérience Diplôme Bac+5 (école d'ingénieur ou université), spécialisé en informatique industrielle, data ou supply chain Minimum 8 ans d'expérience en gestion de projets dans un contexte industriel, idéalement pharmaceutique Anglais courant exigé (écrit et oral), environnement international Compétences Techniques Solide compréhension des environnements industriels : production, supply chain, qualité Maîtrise des systèmes OT : MES, SCADA, API, IoT, Historian Connaissance des architectures cloud : Azure (Data Lake, Synapse, Data Factory…), Databricks, Power BI Bases solides en ingénierie des données : ETL/ELT, connectivité machines, traitement temps réel Maîtrise des outils de gestion de projet (Jira, Confluence, MS Project, Trello…) Méthodologies Agile (Scrum, Kanban) ou cycle en V Soft Skills Autonomie, rigueur et sens du détail Excellentes capacités de communication avec profils techniques et métiers Leadership naturel et aptitude à fédérer des équipes projet Esprit d'équipe, adaptabilité, orientation solution Gestion du stress et des priorités Curiosité technologique (Edge computing, IA industrielle…) Description de l'Entreprise Vous rejoindrez un contexte industriel stratégique et innovant, au croisement du digital, des opérations industrielles et de la donnée. Les projets sur lesquels vous interviendrez ont un fort impact métier et technologique, avec un environnement stimulant mêlant technologies cloud de pointe, IoT industriel, automatisation et intelligence des données. Vous évoluerez dans une organisation internationale, collaborative et transverse, avec une grande autonomie et des perspectives d'évolution sur des sujets innovants et structurants. A bientôt,

Freelance

Mission freelance
Chef de projet

Tenth Revolution Group
Publiée le
Azure Data Factory
Data management
Gestion de projet

6 mois
380-460 €
Lyon, Auvergne-Rhône-Alpes

Bonjour à tous, Un client recherche un profil chefferie de projet Data (fonctionnelle : 80% / Technique 20%), qui piloterait son programme de transformation, avec l'équipe projet : Le Programme « Data Foundation » : Refonte de l’architecture Création d’un Data Lake Mise en place de reporting Optimisation de la circulation des flux DataHub : décision de le conserver dans l’architecture. Migration Data Warehouse : passage d’Oracle vers Fabric. Power BI : centralisation des données groupe. Enjeu de Process de Data Gouvernance : Déploiement Informatica : MDM, Data Quality, Data Catalogue (documentation des données), tracking des données / mise en place d’un rôle de Data Gouvernernance . Day-to-day du chef de projet Data recherché : Pilotage de projet et production de livrables Gestion de portefeuille projets ( Portfolio Manager ) Respect des jalons Chefferie de projet et analyse métier (orientation avec les équipes métier / marketing et communication) Aspects logistiques Start Date : fin septembre => Profil recherché : transversal, couvrant l’ensemble du domaine DATA. Durée du projet : 6 à 8 mois (travail en lots). Localisation : Proche de Lyon Télétravail : 2 jours / semaine après 4 mois de période d’essai. présence full time sur site proche de Lyon les premiers mois, puis 2 jours de télétravail Important : il y a des déplacements entre les sites et les différentes filiales (Paris, Grenoble, selon l'avancée des projets) En bref, de belles perspectives projets sont à prévoir dès octobre et sur toute l'année 2026 ! N'hésitez pas à proposer votre CV

Freelance

Mission freelance
Data Engineer Talend

Cherry Pick
Publiée le
ETL (Extract-transform-load)
Talend

12 mois
450-480 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Expert Talend" pour un client dans le secteur bancaire Description 🎯 Objectif de la mission Dans le cadre de projets critiques (MCO, facturation, référentiels), la mission vise à assurer le développement de flux ETL sous Talend pour le compte d’une structure utilisant des solutions comme Opencell. L’enjeu est de garantir une intégration de données fiable et performante, au cœur de processus stratégiques. 🧪 Responsabilités principales Concevoir, développer et maintenir les flux ETL sous Talend. Travailler dans un environnement soumis à de fortes contraintes de maintenance en conditions opérationnelles (MCO). Assurer la qualité, la cohérence et la conformité des référentiels de données. Participer à la mise en œuvre et à la supervision de solutions liées à Opencell (facturation, gestion client…). Garantir l’intégrité des données alimentant le Data Lake et les systèmes décisionnels.

Freelance

Mission freelance
Data Engineer | DevOps AWS (H/F)

Atlas Connect
Publiée le
AWS Cloud
CI/CD
Data analysis

9 mois
400-450 €
Saint-Denis, Île-de-France

Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction , à l’évolution et à la fiabilité d’un Data Lake stratégique , au cœur des projets liés à l’analyse de l ’expérience utilisateur. Vous interviendrez sur l’ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d’un environnement AWS moderne, dans une logique d’ industrialisation , de performance et de qualité de service . Vos principales missions : • Maintenir et faire évoluer une architecture data scalable sur AWS , adaptée à des volumes importants de données hétérogènes ( logs, fichiers, API …). • Concevoir et structurer les différentes couches du Data Lake ( Landing, Bronze, Silver ) en lien avec les besoins métiers et les bonnes pratiques data. • Développer des pipelines de traitement de données robustes et automatisés ( ETL/ELT ), en batch ou quasi temps réel , via des services AWS : Glue, Lambda, EMR, Redshift, S3… • Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. • Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. • Intégrer de nouvelles sources de données aux formats variés ( API REST, fichiers plats, logs applicatifs …) tout en assurant sécurité et performance . • Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. • Participer à l’ amélioration continue de la plateforme (veille, refonte, optimisation) , dans une logique DataOps (CI/CD, qualité, tests, versioning). • Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus . • Documenter l’architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.

Freelance
CDI
CDD

Offre d'emploi
Chef(fe) de projet modelisation data

IT CONSULTANTS
Publiée le
Azure Data Factory
Méthode Agile

6 mois
Châtillon, Île-de-France

Au sein du pôle Produits/Projets Data, vous interviendrez en tant que Chef(fe) de Projet Coordinateur(rice) pour piloter les flux d’ingestion et d'exposition de données dans le cadre de projets stratégiques (analyse client, performance commerciale, etc.). Objectifs de la mission 1- Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure 2 - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) 3 - Assurer la qualité, la traçabilité et la conformité des données ingérées. 4 - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers 5 - Garantir le respect des délais, des coûts et de la qualité des livrables. 6 - Participer à l’amélioration continue des processus d’ingestion Compétences techniques requises - Gestion de projet : méthodologie Agile/Scrum/Kanban ; Outils Jira, Confluence - Bonnes connaissances des architectures Data : Data Lake, APIs, batch & streaming. - Expérience confirmée sur des projets Data : pilotage ; conception ; modélisation - Suivi de la mise à jour des livrables de documentations : Contrats d’interface ; Inventaire des flux - Maîtrise des outils d’ingestion : Azure Data Factory - Bonnes connaissances des environnements Cloud - Notions de gouvernance des données : qualité, catalogage, sécurité, RGPD. - Expérience dans le secteur du retail serait un plus Qualités humaines - Leadership collaboratif : capacité à fédérer des équipes pluridisciplinaires. - Excellente communication : vulgarisation des enjeux techniques auprès des métiers. - Rigueur et sens de l’organisation : gestion multi-projets, priorisation, autonomie et sens du service - Orientation résultats : focus sur la valeur métier et la livraison. - Curiosité et proactivité : force de proposition.

Freelance
CDI
CDD

Offre d'emploi
Chef(fe) de projet modelisation data

IT CONSULTANTS
Publiée le
Azure Data Factory
Méthode Agile

6 mois
Châtillon, Île-de-France

Au sein du pôle Produits/Projets Data, vous interviendrez en tant que Chef(fe) de Projet Coordinateur(rice) pour piloter les flux d’ingestion et d'exposition de données dans le cadre de projets stratégiques (analyse client, performance commerciale, etc.). Objectifs de la mission 1- Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure 2 - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) 3 - Assurer la qualité, la traçabilité et la conformité des données ingérées. 4 - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers 5 - Garantir le respect des délais, des coûts et de la qualité des livrables. 6 - Participer à l’amélioration continue des processus d’ingestion Compétences techniques requises - Gestion de projet : méthodologie Agile/Scrum/Kanban ; Outils Jira, Confluence - Bonnes connaissances des architectures Data : Data Lake, APIs, batch & streaming. - Expérience confirmée sur des projets Data : pilotage ; conception ; modélisation - Suivi de la mise à jour des livrables de documentations : Contrats d’interface ; Inventaire des flux - Maîtrise des outils d’ingestion : Azure Data Factory - Bonnes connaissances des environnements Cloud - Notions de gouvernance des données : qualité, catalogage, sécurité, RGPD. - Expérience dans le secteur du retail serait un plus Qualités humaines - Leadership collaboratif : capacité à fédérer des équipes pluridisciplinaires. - Excellente communication : vulgarisation des enjeux techniques auprès des métiers. - Rigueur et sens de l’organisation : gestion multi-projets, priorisation, autonomie et sens du service - Orientation résultats : focus sur la valeur métier et la livraison. - Curiosité et proactivité : force de proposition.

Freelance

Mission freelance
Data Engineer Python / AWS /

VISIAN
Publiée le
AWS Cloud
Databricks
Python

3 ans
400-550 €
La Défense, Île-de-France

Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, … Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, …).

Freelance

Mission freelance
Data engineer Python / Pyspark

K2 Partnering Solutions
Publiée le
PySpark
Python

12 mois
400-450 €
Paris, France

Nous recherchons un Data Engineer freelance pour intervenir sur une mission de longue durée (minimum 12 mois) dans le secteur de l’assurance. Vous rejoindrez une direction data structurée et en pleine croissance, au cœur d’une transformation digitale d’envergure. 🎯 Objectifs et contexte de la mission : En tant que Data Engineer , vous intégrerez une équipe d’environ 30 personnes (data engineers, tech leads) organisée en feature teams agiles . Vous contribuerez à la construction du socle technique Big Data et à l'industrialisation des projets data portés par les directions métier (client, marketing, produits...). 🔧 Stack technique & compétences requises : Compétences techniques indispensables : Développement en Python , avec une solide maîtrise de Spark / PySpark Bonne connaissance de l’environnement Microsoft Azure (Data Factory, Data Lake, Databricks, etc.) Expérience sur des outils de visualisation type Power BI Connaissances des bases de données relationnelles et NoSQL Compétences complémentaires (un plus) : Outils de delivery : Azure DevOps , Azure Pipelines , GIT , JIRA Connaissance des principes CI/CD , tests automatisés , clean code Connaissance des méthodes agiles : Scrum , Kanban 📍 Informations pratiques : Type de contrat : Mission freelance uniquement Localisation : Paris (modèle hybride possible) Démarrage : ASAP Durée : 12 mois minimum

54 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous