Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 185 résultats.
Freelance

Mission freelance
Data ingénieur Dataiku/GCP (H/F)

HC
Publiée le
BigQuery
Dataiku
Google Cloud Platform (GCP)

1 an
500 €
Paris, France
Le poste s'inscrit dans un contexte stratégique de lutte contre la fraude interne et de sécurité financière au sein de la Direction Risques & Conformité du Groupe. L'enjeu principal est de renforcer l'équipe existante avec un profil Data Engineer hands-on capable de prendre en charge de bout en bout la construction, l'industrialisation et le déploiement de scénarios d'alertes fraude. Le candidat devra être autonome sur les aspects techniques (développement de pipelines, requêtage SQL avancé, déploiement en production) tout en adoptant une posture collaborative et pédagogue auprès des data analysts et des équipes métiers. La maîtrise opérationnelle de Dataiku et de l'environnement GCP/BigQuery est cruciale, l'accent étant mis sur l'exécution technique plutôt que sur l'expertise fonctionnelle métier.
Freelance

Mission freelance
Data Engineer Talend (habilitation requise)

Signe +
Publiée le
Talend

12 mois
400-610 €
Paris, France
Contexte Dans le cadre du développement du DataLab, le Data Office souhaite renforcer ses équipes afin d’accélérer les projets BI, Data Analytics et Data Management et soutenir les initiatives de valorisation des données métiers. Besoin consultant Talend pour T… Objectifs de la mission Concevoir et développer des pipelines de données performants et évolutifs Participer à l’industrialisation et à l’optimisation des flux data Contribuer à la qualité, la fiabilité et la valorisation des données Responsabilités principales Concevoir, développer et optimiser des flux de données sous Talend Collaborer avec les équipes métiers, Data Analysts et Data Architects pour traduire les besoins fonctionnels en solutions techniques Garantir la qualité et la performance des traitements de données Mettre en place des processus de validation, nettoyage et fiabilisation des données Participer aux revues de code et au partage de compétences avec l’équipe Data Engineering Proposer des améliorations continues des outils, méthodes et processus Compétences requises Maîtrise de Talend (développement de pipelines, intégration de données) Bonne compréhension des architectures Data et des bonnes pratiques de traitement des données Expérience en collaboration avec équipes data et métiers Sens de la qualité de données, performance et industrialisation des flux Contraintes spécifiques Mission basée à Vélizy avec déplacements ponctuels Nationalité française requise (accès site)
Freelance

Mission freelance
Data Product Owner

SKILLWISE
Publiée le
Azure
MySQL
Python

3 mois
400-550 €
La Défense, Île-de-France
Nous recherchons pour un de nos clients un Data Product Owner qui sera le responsable de la vision analytique d’un domaine métier. Son rôle est de comprendre en profondeur les besoins des utilisateurs, de transformer ces besoins en produits data concrets et de garantir que les équipes techniques livrent des solutions fiables, utiles et alignées sur les priorités de l’entreprise. Il travaillera au quotidien avec les métiers, les Data Engineers, les Data Analysts et les équipes IT pour créer de la valeur grâce aux données.
Freelance

Mission freelance
Data Modeler PROGRAMME DE TRANSFORMATION DATA B2B sur Paris

EterniTech
Publiée le
BigQuery
Google Cloud Platform (GCP)
Modélisation

6 mois
Paris, France
Mission : Data Modeler – Transformation Data B2B sur Paris Projet : Senior Data Analyst / Data Modeler (B2B) Contexte : Programme de transformation Data B2B, création d’un nouvel espace de données sur Google Cloud Platform / BigQuery . Approche : Greenfield – reconstruction des produits de données depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). Équipe : Intégré à la “Core Team” pour bâtir le socle technique et les données de référence utilisées par les Squads Métiers. Démarrage : ASAP / URGENT Objectif de la prestation : Le prestataire sera Référent Modélisation & Connaissance de la Donnée , faisant le lien entre Experts Métiers et Lead Data Engineer Agile. Responsabilités principales : Conception du Core Model : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) sur BigQuery (Star Schema / Data Vault). Règles de Gestion RCU : Définir/prototyper en SQL les règles de rapprochement entre données techniques et légales (SIREN/SIRET). Archéologie de la Donnée : Analyser les sources legacy (Oracle), identifier règles implicites et écarts avec la cible. Gouvernance & Dictionnaire : Documenter les métadonnées dans AIDA et ODG. Support aux Squads : Préparer des datasets certifiés pour Data Scientists et Analystes. Livrables attendus : Modélisation cible : Modèles Logiques de Données validés par Tech Lead. Mapping Source-to-Target. RCU / Vision 360 : Spécifications SQL des règles d’unicité, matrice de cas particuliers. Gouvernance : Dictionnaire de données intégré dans AIDA et ODG. Qualité des données : Définition des règles DQ pour chaque objet métier. Prototypage / exploration : Requêtes SQL et datasets de test pour validation métier. Planning clé : 1er draft RCU : mi-mars 2026 MVP RCU : fin mars 2026 Gouvernance et qualité : continu Prototypage : à la demande
CDI

Offre d'emploi
Data Engineer (H/F)

Link Consulting
Publiée le
Big Data
Python
SQL

38k-40k €
Castelnaudary, Occitanie
Notre client, acteur majeur du secteur de la grande distribution, recherche son futur Data Engineer (H/F) pour son site basé dans l'Aude, à 45 minutes de Toulouse, dans le cadre du développement et de l’évolution de ses outils de pilotage. ### Vos missions Intégré à l’équipe informatique du client, vous devrez : * Centraliser et fiabiliser les données issues des outils métiers (logistique, commerce, marketing, qualité, finance). * Concevoir et déployer des architectures robustes pour collecter, structurer et exploiter des volumes importants de données. * Développer, automatiser et optimiser les flux et traitements de données, notamment depuis l’environnement SAP BusinessObjects via l’ETL BODS. * Garantir la performance, la disponibilité et la pérennité des infrastructures data. * Collaborer étroitement avec les équipes métiers et les Data Analysts afin de fournir des données fiables et exploitables pour la prise de décision. Les compétences techniques * Maîtrise des langages : Python, C/C++, Java, Perl. * Solide expérience des environnements UNIX, Linux, Solaris. * Bonne connaissance des bases de données et du SQL. * Compréhension globale des enjeux Big Data. * Atouts complémentaires : Access, VBA, Google Cloud Platform (GCP).
Freelance

Mission freelance
Data Architect

Codezys
Publiée le
API
Azure
Azure Data Factory

12 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Architect qui intégrera l'équipe stable dédiée à la Business Intelligence (BI) et à l'Analyse, avec un focus particulier sur le domaine Achats. Objectifs et livrables Ce que vous aurez à réaliser : En tant que Data Architect, vous veillerez à ce que les produits délivrés par votre équipe soient conformes à notre architecture cible globale. Pour soutenir cette fonction, nous cherchons un Data Architect spécialisé dans Azure, possédant une bonne compréhension des services disponibles dans la stack analytique Azure. Vous collaborerez avec le DPO, les Data Analysts, Data Engineers & Data Scientists de l'équipe, ainsi qu'avec la communauté d'architectes, afin de définir une architecture de qualité, apportant une valeur métier pertinente et assurant la maintenabilité à long terme. De plus, vous devrez faire preuve de compétences en leadership pour prendre en charge le rôle de lead technique et participer aux discussions avec les parties prenantes métier et l’architecture d’entreprise. Vous apportez un leadership technique, participez aux efforts de développement et représentez l’ensemble des capacités internes et externes de la plateforme. Vous êtes un membre actif de la guilde des architectes, chargé de superviser le processus de gestion des données et de fournir guidance et orientation aux équipes de développement. Vous êtes responsable de la conception et de la documentation des solutions dans votre domaine. Vous avez une expérience avec Databricks, ADLS Storage, SQL Database, Azure Data Factory (ADF) et Power BI. Vous avez l’expérience de la définition et de la gestion d’une architecture de données évolutive de bout en bout, en tenant compte de l’architecture d’entreprise et des normes du secteur. Vous maîtrisez le développement, la documentation et la maintenance de modèles de données logiques et physiques. Votre futur équipe Dans le cadre du domaine Achats, vous devrez relever de nombreux défis et aborder des sujets passionnants : Mettre en place des Data Products pour soutenir l’approche CAST (produits réutilisables partagés), conformément à notre stratégie. Contribuer à la définition de la feuille de route des initiatives BI & Analytics. Définir le Modèle de Données EDM et le mettre en œuvre en respectant les directives existantes. Participer à l’équipe de maintenance afin d’assurer la continuité des processus métier.
Freelance

Mission freelance
Directeur de Projet/ Chef de Projet

Codezys
Publiée le
CRM
Gestion de projet

6 mois
450-510 €
Marly, Hauts-de-France
Nous recherchons une expertise en gestion de projets data transversaux au sein de systèmes d'information complexes. Forts de 22 années d'expérience, nous sollicitons un profil disposant d'une compréhension approfondie des enjeux stratégiques liés à la donnée, tels que la gestion des données de référence (MDM), les référentiels consolidés, ainsi que les migrations de bases de données. Une maîtrise avancée des concepts de Data Gouvernance et de Data Mesh est essentielle pour mener à bien ce projet. Nous apprécions particulièrement une vision globale à 360°, intégrant une compréhension claire des enjeux d'architecture data et des interactions entre les équipes techniques et métiers. Le candidat doit également démontrer sa capacité à piloter des équipes multidisciplinaires, incluant des data engineers, des data analysts et des développeurs, tout en ayant une appétence pour les projets de transformation et de convergence des systèmes d'information. Cela concerne notamment la modernisation, la standardisation et l'optimisation des infrastructures data. Objectifs et livrables Nos objectifs principaux sont les suivants : Élaborer et déployer des stratégies efficaces pour la gestion des données de référence (MDM) et des référentiels. Concevoir et réaliser des projets de migration de bases de données et de systèmes d'information. Mettre en œuvre des pratiques de Data Gouvernance solides et déployer le concept de Data Mesh. Coordonner et diriger des équipes pluridisciplinaires afin d'assurer la réussite des projets. Moderniser et standardiser les architectures systèmes pour améliorer leur efficacité et leur performance globale.
Freelance

Mission freelance
OP / Analytics Engineer (Consultant Data expérimenté)

OUICODING
Publiée le

1 mois
420-500 €
Paris, France
2) Missions principales (responsabilités) Analyse & modélisation - Réaliser des analyses complexes sur les données et produire des insights actionnables via des méthodologies statistiques. - Concevoir/porter des modèles de données métiers (expertise de la modélisation). - Posture "Conseil" & interface métier - Traduire les besoins métier en exigences techniques, tout en les challengeant et en étant force de proposition. Communiquer avec pédagogie auprès d'équipes techniques et métiers ; animer la communauté de data analystes. Delivery BI / dataviz / UX - Concevoir des rapports pertinents à partir des données analysées. - Porter des propositions UX/UI (wireframes, maquettes, personae) et proposer des visualisations avancées (ex. D3.js). Gouvernance & patrimoine data Rédiger/maintenir les bonnes pratiques de modélisation et développement. Maintenir la connaissance du patrimoine de données et des publications de reporting associées. Développer l'offre Streamlit et maintenir un cadre UX/UI Data ; assurer une veille produit Power BI. Expertise / administration / industrialisation - Administrer le service Power BI (et le "parc"), consolider les métriques d'usage et les données catalogue. - Auditer / optimiser du code (Power BI, SQL, Streamlit) et maintenir le CI/CD Power BI. Sécurité S'approprier et intégrer les exigences Cybersécurité dans les pratiques et livrables.
Freelance

Mission freelance
DATA SCIENTIST - sénior

Geniem
Publiée le
Data science
Dataiku
Machine Learning

6 mois
Lille, Hauts-de-France
Pour compléter une équipe transverse : Data Engineer, Data Scientist, Data Analyst et MLOps Elle assure également le lien avec la Global Tech & Data Platform . Cette plateforme construit et maintient les produits liés à nos infrastructures et notre transformation vers le Cloud GCP, assurant ainsi l’efficacité opérationnelle sur lesquelles reposent nos plateformes métiers. Votre mission : En lien avec notre philosophie Data In Product, vous êtes responsable de : La création de solutions et applications ML/IA de pointes, pour mise en production, La modélisation et l’industrialisation de modèles produits au service des BUs de la plateforme, L’élaboration d’un cadre de bonnes pratiques au sein de la guilde Data du domaine, L’accompagnement et l’acculturation des métiers sur les bonnes pratiques de l’exploitation de la data. Vous êtes vous-même sensible à l’approche Data Driven de nos produits, L’intégration des applications ML dans nos produits, en lien avec les équipes métiers, La mise en place de modèles statistiques pour résoudre les problématiques identifiées, La collecte de données, la construction de Data Marts et le déploiement de modèles (end-to-end PoC), La connaissance des métriques de base, et les principes d’évaluation de la qualité des modèles obtenus, et leur relation avec les indicateurs de performances Métier, La veille technologique pour orienter et être force de proposition sur l’animation de la backlog du Data Socle COMPÉTENCES REQUISES/ Technique : Python, SQL, GCP (BigQuery, GCS, ...), Pipeline MLOps, Linux, Modélisation de données Méthodologique : Agilité, Github Langues : Français, Anglais
Freelance

Mission freelance
Senior Data Engineer AWS

SILAMIR
Publiée le
AWS Cloud

12 mois
Paris, France
Nous recherchons un Data Engineer expérimenté afin de contribuer à la fiabilité, l’automatisation et la scalabilité d’un Lakehouse data. Vous interviendrez sur la conception et l’orchestration de pipelines, l’optimisation des traitements et l’évolution de l’architecture data dans un environnement moderne basé sur AWS. Vos missions : Conception & orchestration Concevoir, développer et maintenir des pipelines Airflow pour l’ingestion et la transformation des données Mettre en place des frameworks et mécanismes d’automatisation Garantir la robustesse, la modularité et la résilience des workflows Traitement & gestion des flux Développer des composants pour le traitement de fichiers plats (CSV, JSON, Parquet…) et leur exposition via API Consommer et transformer des flux Kafka avec Spark Optimiser la performance et le partitionnement des traitements sur de gros volumes Collaboration analytique Collaborer avec les Data Analysts pour concevoir des agrégats métiers Créer et maintenir des vues Athena utilisées dans Tableau Garantir la cohérence, la fraîcheur et la traçabilité des données Évolution du Lakehouse Participer à la conception et à l’amélioration continue de l’architecture Créer et maintenir des tables de référentiel (clients, contacts, événements, interactions…) Implémenter ces référentiels avec Iceberg / Hudi Supervision & DataOps Assurer la supervision quotidienne des pipelines Mettre en place alerting et monitoring Produire et maintenir la documentation technique
Freelance

Mission freelance
Data Architect

Groupe Aptenia
Publiée le
Architecture
Data governance
Data quality

3 ans
Île-de-France, France
En tant que Data Architect , vous serez en charge de concevoir et mettre en œuvre une architecture data unifiée , intégrant des systèmes hétérogènes (dont ceux issus de l’acquisition de plusieurs entités). Votre objectif : simplifier, standardiser et optimiser les flux et le stockage des données pour en faire un levier stratégique. Vos responsabilités clés : ✔ Conception d’une architecture data cohérente : Définir une feuille de route technique pour intégrer les systèmes legacy et modernes dans une architecture homogène. Proposer des solutions pour réduire l’hétérogénéité des données et des plateformes. ✔ Pilotage de la migration et de l’intégration des données : Superviser la transformation et la migration des données vers des environnements cibles (data warehouses, data mesh). Garantir la qualité, la cohérence et l’accessibilité des données. ✔ Collaboration avec les équipes Data et IT : Travailler avec les Data Engineers et Data Analysts pour concevoir des pipelines de données efficaces. Être un relais technique entre les équipes IT et métiers.
Freelance

Mission freelance
Coach Agile - Nantes

Signe +
Publiée le
Kanban
PowerBI
Python

220 jours
380 €
Nantes, Pays de la Loire
Accompagner les équipes Data dans l’amélioration continue de leurs pratiques (agilité, organisation, delivery) tout en contribuant à la production et à l’analyse des données. Responsabilités : Coach Agile / Scrum (50%) : - Animer les cérémonies agiles (daily, sprint planning, review, rétrospectives). - Structurer le backlog et prioriser les tâches. - Former et sensibiliser l’équipe aux pratiques Scrum, Kanban et Lean. - Aider à lever les obstacles, améliorer le fonctionnement interne et le delivery. - Mettre en place des outils simples de suivi (tableaux, indicateurs, rituels). - Faciliter la communication entre les équipes techniques, métiers et exploitation Data Analyst (50%) : - Collecter, nettoyer et analyser les données liées aux flux, usages, équipements et services en gare. - Réaliser des tableaux de bord (Power BI ou équivalent) pour les équipes métiers. - Contribuer aux études statistiques (tendances, performances, incidents, utilisation des outils…). - Proposer des indicateurs pour orienter les décisions opérationnelles. - Travailler avec les équipes terrain pour comprendre les besoins utilisateurs et améliorer les visualisations.
CDI

Offre d'emploi
Data Manager H/F

WINSEARCH
Publiée le

70k-90k €
Laval, Pays de la Loire
Votre mission : Faire de la donnée un levier direct de performance commerciale et de création de valeur métier pour l'ensemble du réseau. Structurer, fiabiliser et interconnecter le patrimoine informationnel de TYLS afin de passer d'une donnée subie à une donnée déclencheuse de business. Architecte du patrimoine Data du réseau Cartographier l'ensemble des flux et sources de données (GI / Facturation / Social / CRM / BI).Définir les standards de structuration, de qualité et de gouvernance.Sécuriser et uniformiser les référentiels.Construire le datalake interne du réseau.Déployer un socle BI robuste (Power BI) pour piloter la performance. 2. Accélérateur de performance commerciale Transformer la donnée en produits data activables : triggers, scoring, segmentation intelligente.Alimenter les équipes commerciales en insights actionnables.Déployer des dashboards réseau orientés business et productivité.Mesurer et piloter la performance par cabinet, par offre, par segment. 3. Chef d'orchestre des briques SI stratégiques Piloter la cohérence et l'interconnexion des outils structurants.Moderniser la brique GI / Facturation, socle de qualité des données internes.Interconnecter le SI Social (SILAE) avec la comptabilité et le CRM.Positionner HubSpot comme référentiel client unique. 4. Bâtisseur d'équipe et leader transverse Créer et structurer la fonction Data au sein du réseau.Recruter et manager un Data Analyst / BI Expert.Définir les priorités, roadmaps et rituels de pilotage.Accompagner le changement auprès des équipes métiers et commerciales. 5. Anticipation des croissances externes Intégrer l'impact des opérations de croissance externe en cours.Anticiper l'augmentation des volumes de flux et la complexification des systèmes.Définir une architecture scalable.Sécuriser les migrations et harmonisations post-acquisition. Responsabilités clés Définition de la roadmap Data & BI du réseau.Construction du datalake et des flux d'interconnexion.Gouvernance et qualité des données.Déploiement des outils BI et indicateurs COMEX.Pilotage des projets transverses SI/Data.Management d'équipe.Reporting direct Direction Générale / COMEX.
CDI

Offre d'emploi
Consultant(e) Data Expérimenté(e) – Expertise Dataiku (F/H) -Niort

Argain Consulting Innovation
Publiée le
Dataiku
DBT
Google Cloud Platform (GCP)

35k-45k €
Niort, Nouvelle-Aquitaine
Nous recherchons un(e) Consultant(e) Data Expérimenté(e) – Expertise Dataiku (F/H) pour notre cabinet à Niort 🚀 En tant que Consultant(e) Data Expérimenté(e) – Expertise Dataiku , vous interviendrez afin de : Travailler à la fois comme Développeur Data, Business Analyst Data , et référent Dataiku, en jonglant efficacement entre plusieurs projets. Synthétiser les échanges (ateliers, COPRO) afin de partager les sujets clés, proposer des solutions adaptées, chiffrer les besoins et planifier les actions. Assurer le suivi des tâches, sprints et collaborations via JIRA. Concevoir, développer et maintenir des pipelines data end‑to‑end dans Dataiku , notamment avec des traitements en SQL et la connaissance de GCP Contribuer à l’amélioration continue des modèles de traitement, de la qualité des données et des processus métiers. Analyser les besoins des équipes métier, challenger les hypothèses et traduire les cas d’usage en solutions data robustes. Participer à l’animation des ateliers, COPIL/COPRO, et accompagner les équipes dans la bonne exploitation des outils data. Collaborer avec les équipes Data, IT, métiers et prestataires externes pour garantir l’avancement des projets. Assurer une documentation claire et la traçabilité des traitements Data.
Freelance

Mission freelance
Product Owner Data GCP

LINKWAY
Publiée le
Apache Airflow
BigQuery
Cloud

12 mois
400-550 €
Paris, France
Nous accompagnons un leader mondial et prestigieux du secteur du Luxe, réunissant un ensemble de Maisons emblématiques de la mode, de la maroquinerie et de la joaillerie. En tant que responsable de la plateforme Data construite sur Google Cloud Platform (GCP), vous porterez la vision produit. Votre mandat est clair : transformer les besoins métier complexes (venant du Retail, de l'E-commerce, du Marketing, de la Finance ou de la Supply Chain) en solutions data robustes, scalables et sécurisées. Vous ne livrez pas simplement de la technique, mais de la valeur business tangible pour l'ensemble des Maisons. Vision Produit et Roadmap Stratégique : Vous définirez et porterez la vision à long terme de la plateforme Data en alignement avec la stratégie digitale du Groupe. Vous construirez et maintiendrez une roadmap évolutive, en priorisant rigoureusement les initiatives selon leur retour sur investissement (ROI) et leur impact business. Vous devrez anticiper les évolutions technologiques du Cloud pour maintenir le Groupe à la pointe de l'innovation. Pilotage du Delivery et Agilité : Vous orchestrerez le travail des équipes techniques (Data Engineers, Architectes Cloud) en appliquant les méthodologies agiles. Votre rôle inclut la rédaction et la priorisation des User Stories avec des critères d'acceptation précis, ainsi que l'animation des cérémonies (Sprint Planning, Reviews, Retrospectives). Vous serez le garant du rythme de livraison et de l'arbitrage constant entre les besoins tactiques immédiats et les investissements structurels nécessaires. Gestion des Parties Prenantes (Stakeholder Management) : Vous agirez comme l'interface centrale pour une grande variété d'interlocuteurs : Data Analysts, Data Scientists, équipes métiers dans les Maisons et responsables Sécurité. Vous devrez recueillir, challenger et consolider les besoins, tout en facilitant l'adoption de la plateforme par les utilisateurs finaux. La communication sera clé : vous partagerez régulièrement les indicateurs de performance (adoption, coûts, efficacité) et les succès de la plateforme. Garantie de l'Excellence Technique et Conformité : Vous devrez comprendre et challenger les choix d'architecture (Data Lake, Data Warehouse, solutions streaming vs batch) pour garantir la performance et la maîtrise des coûts (FinOps). Évoluant dans un secteur exigeant, vous assurerez également que tous les développements respectent les normes strictes de gouvernance des données, de conformité (RGPD) et de cybersécurité (IAM, chiffrement), protégeant ainsi le patrimoine informationnel du Groupe.
Freelance

Mission freelance
DEVIENS #AUTEUR DE VIDEO Power Query

Editions ENI
Publiée le
Data cleaning
Power Query

4 mois
100-300 €
Saint-Herblain, Pays de la Loire
Vous maîtrisez Power Query sur le bout des doigts ? Vous avez la fibre pédagogique et l'envie de transmettre ? Et si votre prochain défi était de devenir auteur(trice) vidéo ? Aux Éditions ENI, nous recherchons un(e) professionnel(le) de l'IT pour concevoir et enregistrer notre prochaine vidéo qui portera sur Power Query . Votre mission : Partager votre expertise et vos conseils avec une communauté de professionnels. Pourquoi nous rejoindre ? Boostez votre Personal Branding : Devenir auteur ENI, c'est asseoir votre crédibilité dans l'écosystème IT. Focus sur votre expertise : Concentrez-vous sur le contenu, on s'occupe du reste ! Nous vous accueillons dans notre studio d'enregistrement à Saint-Herblain (déplacements pris en charge). De la captation au montage final, nous nous occupons de tout pour garantir un rendu de haute qualité à votre vidéo de formation. Un accompagnement sur-mesure : De la structure du sommaire au tournage, vous bénéficiez d'un suivi éditorial et méthodologique complet. Une rémunération simple : Forfait fixe garanti dès la fin du projet. Le profil recherché : Vous êtes Data Analyst , ou formateur(trice) ... et Power Query n'a aucun secret pour vous. Vous savez vulgariser des concepts complexes et vous êtes à l'aise pour expliquer votre démarche.
185 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous