Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 501 résultats.
Freelance

Mission freelance
Architecte Data IoT

Publiée le
Apache Kafka
Architecture
IoT

12 mois
730-750 €
Lille, Hauts-de-France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Architecte Data IoT" pour un client dans le secteur du retail. Description La Data est centrale dans notre écosystème IoT : elle alimente la BI, la maintenance prédictive, la détection d'accidents et la conception intelligente de nos futurs produits. 🎯 Votre Mission : Architecturer la Data de l'IoT du Groupe Au sein de l'équipe "Cloud IoT Platform - Data Solution", vous agissez en tant que Data Architect / Lead Engineer . Vous êtes le garant des choix techniques et de l'architecture permettant d'ingérer, stocker et exposer les données venant du Cloud, des "Devices" et du Mobile. Vos responsabilités clés : Architecture & Stratégie : Imaginer et concevoir l'architecture Data pour collecter les données IoT (directement des appareils ou via mobile). Définir la stratégie des stacks techniques et garantir les standards d'architecture. Assurer l'alignement entre la vision technique, les priorités business et les besoins utilisateurs. Engineering & Pipelines : Construire des pipelines de données (structurées et non structurées) robustes et scalables. Maintenir et redesigner les pipelines existants pour servir de nouveaux cas d'usage (Analytics, IA, etc.). Garantir l'industrialisation des processus de transformation et le CI/CD. Qualité & Gouvernance : Assurer la scalabilité, l'élasticité et la fiabilité des infrastructures. Garantir la qualité de la donnée, son accessibilité, ainsi que le respect des normes de Privacy et Data Governance (Lineage). Leadership Technique : Contribuer activement à la communauté des Data Engineers. Assurer une veille technologique constante pour orienter la sélection des nouveaux outils. 🛠 Environnement Technique Langages : Python, Scala, Java. Big Data & Streaming : Kafka, Spark. Cloud & Infrastructure : AWS (Lambda, Redshift, S3), Microservices. Concepts : Systèmes distribués, Data Modeling, Real-time data exchanges.
Freelance

Mission freelance
Data Analyst Ms Power BI / DataFlows– Montpellier

Publiée le
AWS Cloud
AWS Glue
Data analysis

12 mois
400-530 €
Montpellier, Occitanie
Télétravail partiel
Contexte : Le secteur de l’énergie renouvelable, notamment l’éolien et le solaire, connaît une croissance rapide et nécessite une exploitation optimale des données pour piloter les activités, assurer la qualité des installations et suivre la performance énergétique. Dans ce contexte, nous recherchons un Data Analyst Power BI confirmé pour renforcer les équipes Data et contribuer à la transformation digitale et analytique de l’entreprise. Mission principale : Le Data Analyst Power BI aura pour objectif de maintenir, améliorer et développer les tableaux de bord métiers critiques , tout en garantissant la qualité et la fiabilité des données . Ses missions incluent : Assurer le maintien en condition opérationnelle (MCO) des tableaux existants. Concevoir et déployer de nouveaux tableaux Power BI adaptés aux besoins métiers. Détecter, analyser et corriger les anomalies de données , et sensibiliser les métiers à la qualité des données. Documenter les évolutions, anomalies et retours métiers. Collaborer avec les équipes métiers et techniques (AWS, Dataiku, Power Platform…) pour assurer la cohérence et la performance des tableaux de bord.
Freelance

Mission freelance
POT8784 - Un Data Analyste énergie Sur Saint Denis

Publiée le
SQL

6 mois
Saint-Denis, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients, Un Data Analyste énergie Sur Saint Denis. Objectif de la mission: Assurer la mise en qualité de la donnée énergétique et mettre en place les flux de data entre les outils internes de gestion de l’énergie (ConsoNG, eVision, Portail de Management de l’Énergie…). Périmètre opérationnel Le consultant interviendra sur : Définition et documentation des nomenclatures de compteurs et sous-compteurs Intégration de nouveaux objets énergétiques dans ConsoNG : ? sous-compteurs, panneaux photovoltaïques, IRVE Participation aux programmes Linky et Gaspar ? fiabilisation des données et échanges avec les distributeurs Mise en place et contrôle des flux inter-outils data Rédaction des expressions de besoins fonctionnels pour la DSI Mise en œuvre de règles de : contrôle d’accès aux données validation des données supervision du cycle de vie des données gestion des versions et historisation Livrables attendus Flux data inter-outils opérationnels Données énergétiques affichées de manière cohérente dans le Portail de Management de l’Énergie Documents fonctionnels et règles de qualité / gouvernance data Profil recherché Data Analyst expérimenté, idéalement avec expérience dans : la qualité et fiabilisation des données, les flux ETL/ELT ou intégrations multi-sources, le domaine énergie (,compteurs, data énergie bâtimentaire) serait un plus, rédaction d’expressions de besoins, interactions avec DSI, compréhension architectures data. Compétences clés : SQL, ETL/ELT, gouvernance data, structuration et documentation des données, contrôle qualité, architecture fonctionnelle simple.
Freelance
CDI
CDD

Offre d'emploi
Consultant Datastage PX (H/F)

Publiée le
ETL (Extract-transform-load)
IBM DataStage

1 an
Île-de-France, France
Télétravail partiel
Contexte de la mission Dans le cadre d’un projet stratégique au sein d’une DSI d’envergure, nous recherchons un Consultant Datastage PX pour intervenir sur des problématiques d’intégration et de traitement de données à grande volumétrie. Responsabilité de la mission Analyser les besoins et concevoir des flux ETL sous IBM Datastage PX . Développer, tester et mettre en production les traitements. Optimiser les performances des jobs Datastage. Assurer la qualité et la cohérence des données dans les environnements cibles. Participer à la définition des standards et bonnes pratiques ETL. Rédiger la documentation technique et assurer le transfert de compétences. Collaborer avec les équipes projet (MOA, MOE, DBA, exploitation). Environnement technique ETL : IBM Datastage PX Bases de données : Oracle, DB2, SQL Server OS : Unix/Linux Outils : Shell scripting, ordonnanceurs (Control-M, Autosys) Méthodologie : Cycle en V / Agile
CDD

Offre d'emploi
Coordinateur Data H/F

Publiée le

3 mois
75001, Paris, Île-de-France
Vous êtes actuellement disponible et recherchez une nouvelle mission en Data ? Veuillez trouver ci-dessous une opportunité de Coordinateur Data H/F Lieu : Paris Démarrage: Début Janvier Durée: 3 Mois Type de contrat: Intérim Mission : L'objectif de cette mission de transition est de saisir, valider et maintenir des données précises et fiables. Tâches : * Créer et maintenir les enregistrements des produits, fournisseurs et clients dans les systèmes * Garantir que toutes les données sont précises, complètes et conformes aux normes internes. * Traiter les configurations et modifications des produits conformément * Effectuer des vérifications de données courantes pour identifier et corriger les erreurs. * Signaler les problèmes complexes * Fournir des mises à jour de données aux parties prenantes * Réaliser des rapports et tableaux de bord Compétences: Administration de données dans le secteur industriel Maitrise d'excel et Google Sheets connaissance de systèmes ERP Expérience en gestion de données Bon anglais Pour plus d'informations, merci de m'envoyer votre CV.
Freelance

Mission freelance
Data Analyst - Infogérance - Lille (H/F)

Publiée le
Microsoft Power BI
SQL

6 mois
500-550 €
Lille, Hauts-de-France
Télétravail partiel
Rejoignez l'une des entreprises leaders dans l'optimisation et la transformation digitale au sein du secteur des services numériques. Basée à Lille et rayonnant sur tout le territoire français, notre entreprise s'engage à offrir des solutions innovantes à ses clients afin de les accompagner dans leur évolution. Face à une croissance constante et à une demande accrue pour des analyses de données précises et transformantes, nous recherchons activement un(e) Data Analyst pour renforcer notre pôle Data. Vous travaillerez étroitement avec les métiers pour transcrire leurs besoins en solutions data-driven, assurant la qualité et la pertinence des insights. Missions - Élaborer le cadrage fonctionnel des cas d’usage avec les différents métiers de l'entreprise. - Traduire des besoins métier en datasets, KPIs et tableaux de bord efficaces. - Réaliser des explorations approfondies de données avec un fort accent sur le storytelling. - Assurer la documentation et la qualité des données. - Contribuer à la mise en œuvre des cas d’usage sur Power BI / Fabric en tant que data consommateur. - Fournir un support aux POC/expérimentations IA en collaboration avec les Data Engineers.
Freelance
CDI
CDD

Offre d'emploi
Responsable offre bureautique

Publiée le
ITIL
Office 365
Power Platform

12 mois
Saint-Denis, Île-de-France
Télétravail partiel
Bonjour, Nous recherchons pour notre client basé en région parisienne dans le 93 un Responsable Office bureautique. 1.1 Objectifs Au sein de la Direction Services Numériques aux Utilisateurs, piloté par le responsable des offres Office, cette prestation consiste à assister au quotidien le responsable d’offre Office dans la gouvernance, le pilotage et la maintenance de l’offre Office Bureautique. Elle s’appuie sur le pôle Veille pour tenir à jour une feuille de route des évolutions fonctionnelles et techniques à venir. Elle analyse ces dernières pour les proposer aux utilisateurs en fonction de leur intérêt métier tout en s’assurant de leurs conformités avec la PGSSI (Politique Générale de Sécurité des Systèmes d'Information Groupe). Elle coordonne leurs mises en œuvre en s’appuyant sur la MOE Poste de Travail pour la gestion des configurations techniques, les déploiements sur les postes de travail Windows et la MCO et sur le pôle Adoption pour l’accompagnement des utilisateurs et des métiers. Elle répond aux questions fonctionnelles et techniques posées par les utilisateurs et aux escalades du support de niveau 2 O365. Elle valorise ces connaissances en rédigeant des consignes pour les supports et en communiquant au travers de contenus rédigés par le pôle Adoption sur les médias mis à disposition (portail O365 et communautés Viva Engage). Le cas échéant, elle escalade les incidents fonctionnels à Microsoft. Les incidents techniques (déploiement et automatisation des process) sont quant à eux escaladés à la MOE Poste de Travail. Elle suit le provisionning des licences M365 pour les différents profils (usages mobilité et bureautiques) et rationalise leur utilisation dans le cadre du programme Pilot’R (libération des licences dans les cas de sans ou peu d’usage). Elle optimise et simplifie les process de demande de service avec de l’automatisation et le portail ITSM afin d’améliorer l’expérience utilisateur. Elle élabore, met à disposition et maintient des tableaux de bord pour suivre l’activité du service et simplifier les process de facturation internes. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
CDI

Offre d'emploi
Chef de projet DATA (H/F)

Publiée le

50k-55k €
Nancy, Grand Est
Télétravail partiel
Intégré à une équipe pluridisciplinaire, vos missions seront les suivantes : - Contribuer à la mise en place de solutions DATA et BI chez les clients (du cadrage au déploiement) - Rédaction de cahier des charges et études de faisabilité - Suivi d'avancement du projet, du budget et du planning, - Rédaction ou validation de documents d'analyse fonctionnelle - Formation utilisateurs - Être garant de la qualité des livrables
Offre premium
CDI

Offre d'emploi
Consultant QA confirmé Décisionnel - progiciel Maximo H/F

Publiée le
Android
Gestion de maintenance assistée par ordinateur (GMAO)
IBM Maximo

45k-50k €
Paris, France
Télétravail partiel
Aldemia recherche un Consultant QA fonctionnel maintenance confirmé - progiciel Maximo H/F. La mission vise à renforcer l’équipe test transverse. L’intervenant viendra renforcer une équipe d’une douzaine de personnes. Les activités à réaliser consistent à : • Contribuer activement aux daily meetings, • Pour le domaine fonctionnel en responsabilité o Contribuer aux travaux de capitalisation pour la recette o Assumer la responsabilité de recette lors des Go/NoGo o Présenter les tableaux de bord pour la mesure de l’avancement. • Contribuer à la définition et la déclinaison de la stratégie de recette o Contribuer à la définition du périmètre des tests par rapport à l’existant et aux enjeux, o Planifier et prioriser l’exécution en lot des plans de tests, • Concevoir les plans de tests (à partir de l’existant ou ad hoc) et préparer les jeux de données : o Animer les ateliers avec les parties prenantes (concepteurs, équipe dev…) o Produire les plans de tests fonctionnels et ceux permettant de vérifier la conformité des contrats de service, o Valider les plans de tests et les jeux de données à produire avec les intervenants concernés, o Définir les actions à mener pour permettre la production des jeux de données, y compris ceux permettant de faire des tests bouchonnés, durant les phases d’exécution, o Produire les jeux de données permettant de faire les tests en mode bouchonné conformément aux scénarios conçus, • Exécuter les plans de tests et assurer leur suivi : o Vérifier les prérequis avant de lancer l’exécution des tests (Plan de tests validés, données disponibles, environnements disponibles, systèmes partenaires disponibles, équipes partenaires disponibles…). o Exécuter les plans de tests prédéfinis selon le planning prévu, o Remonter les anomalies via l’outil de gestion des anomalies, o Contribuer l’arbitrage et la priorisation de la résolution des anomalies avec les parties prenantes concernées, o Suivre la résolution d’une anomalie avec l’équipe de développement, les concepteurs, … o Alimenter les tableaux de bord d’avancement de la recette et de la couverture des tests • Contribution à la stratégie de recette des environnements : o Eléments de définition des campagnes et des scénarios candidats o Eléments de planning de recette. o Eléments de charges de conception et de rédaction des plans de tests ad hoc, • Plans de tests mis à jour dans le référentiel (Squash) : o Plans de test intégrés dans le référentiel avec les liens de dépendance vers les exigences à couvrir (cas tests ad hoc), o Description des prérequis, des préconditions et des jeux de données nécessaires, o Définition des fichiers permettant de faire les tests bouchonnés, o Résultat d’analyse des dépendances externes (applications mobiles, flux externes à SPOT…). • Documents préparatoires et comptes-rendus d’ateliers pour la construction des plans de test o Préparation / Animation /Compte rendu d’atelier. • Jeux de données (fichiers json, fichiers xml, …) : o Jeux de données créés dans l’application, o Fichiers json et xml pour les tests bouchonnés, o Versions de jeux de données. • Résultats d’exécution des plans de tests o Résultats d’exécution des scénarii de tests sous Squash, o Etats de déclaration et de suivi résolution d’anomalies dans Jira. • Indicateurs d’avancement des travaux pour le domaine
Freelance

Mission freelance
Data Quality Tale of Data

Publiée le
Data quality

6 mois
450-470 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Data Quality Tale of Data (H/F) , pour le compte de l'un de ses clients qui opère dans le domaine d'Energie. Description 📍 Contexte de la mission Au sein de l'équipe Data Achat, cette mission s'inscrit dans la continuité des travaux d'analyse et de mise en qualité des données achats initiés précédemment. L'objectif est d'accélérer et d'industrialiser les processus de qualité de données (Data Quality) via l'outil Tale of Data , en vue de l'année 2026. 🎯 Objectifs Principaux Le consultant devra assurer le nettoyage, la fiabilisation et l'industrialisation des données provenant de sources multiples, tout en participant à la structuration de la future Data Plateforme. 💼 Responsabilités & Missions 1. Data Quality Management & Tale of Data (Cœur de mission) Administration de Tale of Data : Tous les flux transitent par cet outil. Une maîtrise (ou une très forte capacité d'adaptation immédiate) est impérative car le consultant devra être autonome rapidement. Configuration et Nettoyage : Paramétrer l'outil pour identifier les anomalies (doublons, erreurs, manquants) sur les données Fournisseurs, Contrats, Données Clients (tables SAP), Marketing, etc. Industrialisation : Faire face à la demande croissante en automatisant les contrôles qualité et les redressements de données. 2. Gestion Multi-Sources & Analyse Consolidation des données : Travailler sur des environnements hétérogènes : SAP MM , Business Central, et outils non-ERP (appels d'offres, qualifications). Rapprochement : Croiser les données entre les différents outils pour produire des référentiels fiables. Investigation : Aller chercher l'information à la source, évaluer la donnée et comprendre sa structure (ne pas "tâtonner"). 3. Pilotage & Projets Transverses (Data Gouv) KPIs : Spécifier et produire les indicateurs de suivi de la qualité des données par périmètre. Data Platform : Monter en compétences sur la structure des données pour accompagner le lancement de la nouvelle Data Plateforme Achats et le projet global de Data Gouvernance. Collaboration : Identifier les nouveaux cas d'usage avec les Business Process Owners (BPO) et les Data Domain Owners.
CDI
Freelance

Offre d'emploi
Cybersecurity Officer - Experimenté

Publiée le
Cybersécurité
Data governance
Data management

3 ans
80k-86k €
700-750 €
Montreuil, Île-de-France
Télétravail partiel
Le consultant interviendra pour : Accompagner le Group Data CISO dans l’évolution de la stratégie Data Security. Être l’interlocuteur privilégié du GDPO , des équipes Data, IT, sécurité et métiers. Préparer et organiser les Group Data Steering Committee et Group DataSec Steering Committee . Renforcer le contrôle, la gouvernance et l’usage sécurisé de la donnée, notamment en environnements hors production . Définir une stratégie permettant de sécuriser, anonymiser et mettre à disposition des données sensibles cohérentes pour les tests, analyses et usages Data. Missions : Interaction & coordination Définition & déploiement des exigences cyber liées à la Data Gouvernance & pilotage Data Security Gestion de la sécurité des environnements hors production
Freelance

Mission freelance
POT8818 - Un Data Scientiste Senior sur Clermont-ferrand

Publiée le
SQL

6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Data Scientiste Senior sur Clermont-Ferrand. PRESTATION Datascientist expérimenté en analyse de données télématiques gros volume et cartographie numérique PRINCIPALES ACTIVITES Analyse de données -Classification et clustering, machine learning dans les domaines de la topographie et de l’usage des véhicules (cinématique et dynamique) -Evaluation et développement d'algorithmes, services et process associés Prescripteur pour les évolutions futures de l'environnement d'analyse et bases de données -BD spatiale et navigation entre bases de données géospatiales et temporelles (en collaboration) COMPETENCES Expérimenté en machine learning Snowlake, PostgreSQL Python (geopandas, holoviews, datashader) SQL Expérience souhaitée en traitement de signal Expérience souhaitée sur QGIS ou ArcGIS Expérience souhaitée de geoservices: OSM, Here Développement de Web apps pour déploiement sur le terrain Outils de visualisation / BI : -Conception d'outils d'exploration visuelle de données spatiales et temporelles -Elaboration de dashboards d'analyse Localisation : Clermont-ferrand / 5 jours par semaine
Freelance
CDI

Offre d'emploi
MOA – Application ATHENES Bilingue sur Paris

Publiée le
CSS
Data Lake
Java

3 mois
Paris, France
Télétravail partiel
Je recherche pour un de mes clients un MOA – Application ATHENES sur Paris Pour l’application ATHENES le périmètre couvre : application est dédiée à l'activité de gestion des participations o La prise en charge des éléments du backlog d’ATHENES : Backlog éditeur Interfaçage CDC (flux) DataLake / Tableau Développement de Proximité Bureautique, etc. au travers de la maintenance corrective et évolutive : expression des besoins, analyse, configuration, recette o Le support utilisateur o La gestion des incidents de production, en relation avec les équipes métiers o La documentation des points ci-dessus o Suivi de KPI éditeurs o Relation avec l’éditeur, comitologie en interne et avec l’éditeur Compétences • Forte expérience en maîtrise d’ouvrage et en support sur les métiers liés au franchissement de seuil (seuils, types, déclarations, etc.) et OPA. • Connaissance approfondie de l’outil Signal de CSS/Confluence (paramétrages, configuration des règles d’alertes, ETL Studio, etc.) • Connaissance approfondie sur l’implémentation de Signal chez d’autres clients • Connaissance des règles de franchissements de seuils règlementaires et statutaires sur plusieurs juridictions (EU, USA, G20), OPA, règles sur l’actionnariat (loi Florange) • Connaissance approfondie de l’anglais (éditeur anglophone) • Connaissance approfondie du langage SQL. • Connaissance approfondie d’Excel (VBA, TCD, etc.) et la programmation (Python). • Connaissance des marchés et des instruments financiers • Connaissance des plateformes (Refinitiv) Démarrage: ASAP Durée Longue
Freelance

Mission freelance
Ingénieur MLOps Data & IA

Publiée le
Amazon S3
Apache Airflow
Apache Spark

12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Contexte Le profil interviendra sur l’ensemble du cycle de vie des solutions d’Intelligence Artificielle (IA), incluant : Industrialisation et CI/CD : Mise en place et maintenance de pipelines CI/CD (GitLab, Docker, Terraform, Kubernetes). Infrastructure et automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM…). Data Engineering & Spark : Développement et optimisation de jobs Spark pour la préparation et le traitement de données à grande échelle. MLOps / Production : Déploiement, suivi et supervision des modèles IA (MLflow, , monitoring Datadog). Collaboration transverse : Interaction quotidienne avec les Data Scientists pour fiabiliser le delivery et le suivi des modèles. Veille et amélioration continue : Participation active à l’optimisation des pipelines et à la montée en maturité technique de l’équipe. Description de la mission Le profil sera en charge de : Maintenir et faire évoluer les pipelines d’industrialisation (CI/CD, Terraform, Docker, Kubernetes). Participer à la mise en production et au suivi des modèles IA (Airflow, Datadog, , MLflow). Garantir la fiabilité des traitements Spark et la conformité des environnements AWS. Contribuer au suivi de la production et aux mises en production (MCO). Participer à l’amélioration continue des outils et pratiques Data/IA. Documenter les bonnes pratiques techniques et partager les retours d’expérience au sein de l’équipe AI Experts. Compétences techniques attendues Obligatoires (Must Have) : CI/CD (GitLab) Docker Terraform Kubernetes Spark Python AWS (S3, EMR, SageMaker, IAM…) Souhaitables (Nice to Have) : MLflow Airflow API / FastAPI Datadog Suivi de production / MEP Autres compétences : Expérience de collaboration avec des Data Scientists Veille technologique et amélioration continue Soft Skills recherchés Esprit d’équipe et forte culture du delivery Rigueur technique, curiosité et autonomie Capacité à collaborer efficacement dans un environnement pluridisciplinaire (DE, DS, OPS, PO, DEV, staff) Sens du partage et de la documentation Livrables et responsabilités principales Maintenir et faire évoluer les pipelines CI/CD et d’industrialisation Participer aux mises en production et au suivi des modèles IA Garantir la fiabilité des traitements Spark et la conformité AWS Contribuer à l’optimisation continue des outils et pratiques Documenter et partager les bonnes pratiques techniques
Freelance

Mission freelance
Architecte Data GCP

Publiée le
Architecture
Google Cloud Platform (GCP)
Python

3 mois
620-700 €
Hauts-de-Seine, France
Nous recherchons un Architecte Data GCP senior pour accompagner une grande organisation française dans la structuration et l’évolution de sa Data Platform au sein d’équipes pluridisciplinaires (Data Engineers, Data Scientists, Product Owners, équipes techniques transverses…). Vos missions En tant qu’Architecte Data, vous interviendrez sur un périmètre stratégique incluant : Architecture Data Garantir la cohérence et la standardisation de la stack technique entre les différentes équipes. Auditer l’architecture existante et proposer des améliorations structurantes. Définir les contrats d’interface entre les équipes (data products / data mesh). Participer à l’introduction et aux tests de nouvelles technologies. Veille technologique continue sur les solutions Cloud & Data. Developer Experience Contribuer à la rédaction et à l’industrialisation de modules Terraform / Terragrunt. Accompagner les équipes dans la montée en compétence sur l’Infrastructure as Code. Définir les standards CI/CD applicables à l’ensemble des équipes Data. FinOps Suivi et contrôle du budget Data (multi-équipes). Mise en place d’outils de monitoring, alerting et optimisation des ressources. Identification et priorisation des optimisations de coûts Cloud.
CDI
Freelance

Offre d'emploi
Data Engineer

Publiée le
BigQuery
Docker
Domain Driven Design (DDD)

1 an
10k-60k €
100-550 €
France
Télétravail partiel
Construire des pipelines de données : Automatiser l’extraction, la transformation et le chargement (ETL/ELT) des données pour les rendre exploitables. Gérer les infrastructures data : Mettre en place et optimiser les environnements techniques (bases de données, cloud, outils de traitement). Garantir la qualité des données : Nettoyer, valider et monitorer les données pour assurer leur fiabilité et leur cohérence. Collaborer avec les équipes métiers et techniques : Comprendre les besoins, fournir des données prêtes à l’emploi et faciliter leur utilisation. Sécuriser et gouverner les données : Protéger les données sensibles et s’assurer de leur conformité aux réglementations (RGPD, etc.). Innover et optimiser : Veiller aux nouvelles technologies et améliorer en continu les processus data
4501 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous