Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 631 résultats.
Freelance

Mission freelance
Data Product Manager / Data & BI (Senior)

Inventiv IT
Publiée le
Data analysis
Data modelling
ERP

6 mois
600-750 €
Île-de-France, France
Piloter les études et cadrages des initiatives Data & BI . Recueillir et analyser les besoins métiers et comprendre les enjeux business. Organiser et animer des workshops avec les parties prenantes pour collecter les exigences fonctionnelles. Définir et documenter l’ architecture fonctionnelle des solutions data . Réaliser la modélisation des données et concevoir les couches métiers (Business Layer / Silver Layer). Assurer la cohérence du cycle de vie de la donnée : de la source jusqu’à la visualisation. Coordonner les contributions des Data Architects, Data Engineers et équipes BI . Documenter la valeur métier des solutions data proposées. Préparer le budget (build/run) et le planning projet . Formaliser les propositions de lancement de projets data . Anglais courants . Environnement technique BI / Data Visualization : Power BI, Microstrategy Data Platform / Data Warehouse : Azure, Snowflake Data : SQL, Data Modeling, Data Analysis ERP / Data Sources : SAP Architecture Data & Data Lifecycle
CDI

Offre d'emploi
Urbaniste Data (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Kafka
PostgreSQL

54k-58k €
Roubaix, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
CHEF DE PROJET INFORMATIQUE H/F

█ █ █ █ █ █ █
Publiée le
Redmine

Poitiers, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Analyst - confirmé - CDI - Rouen H/F

GROUPE ARTEMYS
Publiée le

76000, Rouen, Normandie
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées. Contexte de la mission : Le pôle Data & BI de notre client est engagé dans une dynamique de renforcement pour 2026, avec des enjeux forts autour de la structuration des usages BI, de la consolidation des données et de la mise à disposition de la donnée aux métiers dans une logique de self-BI. Les travaux portent à la fois sur la refonte de l’existant et sur la construction de nouvelles briques data, avec une volonté claire de professionnaliser les pratiques et de sortir progressivement d’un fonctionnement trop orienté production. Objectif de la mission : En tant que Data Analyst / BI Engineer, vous intervenez comme profil de construction au cœur de l’ingénierie data : Concevoir et structurer les modèles de données analytiques Fiabiliser les chaînes de traitement de données Mettre à disposition une donnée exploitable et autonome pour les métiers Contribuer à la mise en place de process data robustes (build / run / fiabilisation) Votre mission (si vous l’acceptez) : Build Conception et développement des pipelines d’ingestion et de transformation Construction de bases de données analytiques Modélisation décisionnelle (modèle en étoile) Conception de cubes pour la mise à disposition de la donnée métier Développement orienté Python, avec une approche code-first et versionnée (Git) Run Maintien et évolution des traitements existants Supervision et optimisation des flux de données Contribution à la stabilité de la plateforme data Fiabilisation (enjeu clé du poste) Mise en place de contrôles de qualité de données Sécurisation et structuration des process Contribution à la réduction des interventions directes en production Vous, notre perle rare : Compétences techniques Expérience confirmée en Data / BI Maîtrise de la conception de bases de données analytiques Solide pratique de la modélisation décisionnelle Expérience en Python appliqué au traitement de données Sensibilité forte aux bonnes pratiques de développement logiciel Compétences fonctionnelles Capacité à comprendre les enjeux métiers et à les traduire en modèles data Appétence pour les sujets de construction et de structuration Intérêt marqué pour la qualité et la fiabilité de la donnée Soft skills Esprit structurant et pragmatique Capacité à travailler dans un contexte en transformation Goût pour les environnements techniques exigeants et évolutifs Environnement technique : Cloud : Azure / Data Fabric Ingestion & orchestration : outils Azure, usage orienté code (non low-code) Langage : Python Modélisation : data marts, modèles en étoile, cubes Méthodologie : pratiques issues du développement logiciel (Git, traçabilité, structuration) Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération et conditions : CDI Salaire : 37k€ à 40k€ en fonction du niveau d'expérience Prise de poste ASAP Mode de travail hybride, 1 journée de télétravail par semaine Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Freelance

Mission freelance
Data Engineer Python / Azure Cloud (H/F)

Gentis Recruitment SAS
Publiée le
Azure
Data Lake
ETL (Extract-transform-load)

12 mois
Paris, France
Dans le cadre d’un projet au sein de la Digital Factory d’un grand groupe international du secteur de l’énergie , nous recherchons un Data Engineer expérimenté pour concevoir et mettre en place des pipelines de données dans un environnement Azure Cloud serverless . Contexte La Digital Factory du groupe (plusieurs centaines de collaborateurs, organisation en squads internationales) développe et déploie des solutions digitales afin de soutenir les activités du groupe à l’échelle mondiale. Missions Concevoir et développer des pipelines de données en Python Mettre en place des traitements batch et orchestrations via Azure Durable Functions Manipuler des volumes de données importants (Parquet) Mettre en place des contrôles qualité et validations de schémas Intégrer des API externes Participer à la modélisation et optimisation des bases Azure SQL Implémenter l’ observabilité (logs, métriques, traces) Industrialiser les déploiements via CI/CD Garantir la qualité et la sécurité du code (tests automatisés, scans) Stack technique Python Azure Cloud Azure Functions (Durable Functions v2) Data Lake / Blob Storage / Azure DB Pandas, Polars, PyArrow Profil recherché Minimum 6 ans d’expérience en Data Engineering Forte expertise Python & Azure Expérience sur architectures serverless Capacité à travailler en environnement agile / squad Anglais courant Informations mission Démarrage : mi / fin mars 2026 Durée : 12 mois Localisation : Paris Télétravail : 2 jours / semaine Processus de sélection Test technique (Codingame) à réaliser sous 72h Échange technique avec l’équipe projet
Freelance
CDD

Offre d'emploi
Consultant Data Quality Monitoring – Stress Test Marché (F/H)

Taleo Capital
Publiée le
Finance
Monitoring
Python

8 mois
33k-40k €
340-480 €
Paris, France
Taleo Consulting est un groupe de conseil en management présent à Luxembourg, Paris, Bruxelles, Amsterdam, Genève, Barcelone, Singapour et Lisbonne. Nos valeurs sont : Famille, Fun et Excellence et font partie intégrante de l’ADN de Taleo. Nous comptons aujourd'hui plus de 400 employés à travers nos 8 bureaux internationaux ! Notre expertise financière permet d’apporter à nos clients les meilleures pratiques, des solutions sur mesure et innovantes. Nous intervenons auprès des banques, des assets managers et des assurances. Consultant Data Quality Monitoring – Stress Test Marché (H/F) · Début ASAP · Durée 8 mois renouvelables · Localisation Paris Contexte de la mission La mission s’inscrit au sein d’un département en charge des systèmes de gestion des risques liés aux activités de marché . Dans ce cadre, le consultant interviendra sur l’ implémentation d’un outil de monitoring de la qualité des données issues des Stress Tests Marché , afin de renforcer la fiabilité et le contrôle des données utilisées dans les processus de gestion des risques. Le consultant sera intégré à une squad dédiée aux Stress Tests , organisée selon une méthodologie Agile (Scrum) et travaillera avec des équipes internationales situées notamment en Europe et en Asie . Objectifs de la mission · Participer au développement d’un outil de monitoring de la qualité des données · Contribuer à la détection des anomalies dans les données de stress test · Garantir la cohérence et la complétude des données produites · Participer à l’ amélioration des contrôles de qualité des données Missions principales Analyse des flux et compréhension du système: · Comprendre les flux de données liés aux stress tests · Analyser les données produites par les systèmes de marché · Participer à la cartographie des flux de données · Participer aux rituels Agile de l’équipe (daily, sprint review, backlog) Développement des contrôles de qualité: · Participer au développement d’un outil de contrôle qualité en Python · Implémenter des règles de validation des données : o cohérence inter-dates o détection de valeurs manquantes o contrôle de variation o contrôles de complétude · Interroger les bases de données SQL pour récupérer les données de stress test · Contribuer à l’intégration de l’outil dans le pipeline CI/CD Mise en production et suivi : · Déploiement du composant sous forme de microservice · Mise en place d’ alertes automatisées en cas d’anomalie détectée · Production de rapports de qualité des données · Présentation des KPI de qualité aux équipes concernées Documentation et amélioration continue : · Documenter les règles de contrôle et les processus · Contribuer à l’amélioration continue des contrôles de données · Proposition d’améliorations, notamment via des approches avancées de détection d’anomalies Compétences techniques · Python · SQL · Git · CI/CD · Architecture microservices · Méthodologie Agile / Scrum
Freelance
CDI
CDD

Offre d'emploi
🚀 Data Engineer / Architecte Data Senior

ASAP TECHNOLOGIES
Publiée le
AWS Cloud
Data analysis
PySpark

3 ans
32k-70k €
150-650 €
Saint-Denis, Île-de-France
Dans le cadre d’une mission stratégique auprès d’un grand acteur du secteur des services digitaux, ASAP Technologies recherche un(e) Data Engineer / Architecte Data Senior . Vous interviendrez au sein d’un pôle Data Services pour accompagner la conception, l’industrialisation et l’évolution d’une plateforme Lakehouse à grande échelle, dans un environnement cloud moderne et exigeant. 🎯 Vos missions En tant qu’Architecte Data Senior, vous jouerez un rôle central dans la structuration et l’optimisation des solutions Data. 🏗 Architecture & Modélisation Concevoir et faire évoluer une architecture Lakehouse Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold) Modéliser les données et optimiser la performance des pipelines ⚙️ Développement & Industrialisation Concevoir, développer et optimiser des pipelines de données à grande échelle Mettre en œuvre des flux batch , streaming et ingestion via API Développer et industrialiser les pipelines avec DBT Spark et Iceberg Orchestrer les workflows ETL/ELT via Airflow Déployer et maintenir les pipelines dans un environnement Cloud (AWS ou équivalent) Mettre en œuvre l’Infrastructure as Code via Terraform Exécuter les traitements dans des environnements conteneurisés ( Docker / Kubernetes ) 🔎 Qualité, Sécurité & Performance Garantir la disponibilité, la supervision et l’observabilité des traitements Définir et implémenter les règles de qualité des données (tests, contrôles automatisés) Documenter architectures, pipelines et règles métier Assurer la conformité réglementaire (RGPD) Participer à la gestion des incidents et à l’amélioration continue 🤝 Leadership & Expertise Accompagner des profils juniors Être force de proposition sur les choix techniques Faire le lien entre enjeux métiers et architecture data
Freelance

Mission freelance
Team Leader Data Engineering (H/F)

Freelance.com
Publiée le
Apache Kafka
Confluence
Data management

3 mois
400-430 €
Bordeaux, Nouvelle-Aquitaine
Intitulé : Team Leader Data Engineering Localisation : Bordeaux Expérience : 2 à 5 ans Démarrage : ASAP jusqu’à fin 2026 Deadline réponse : 9 mars 🎯 Mission générale Sous la responsabilité du Head of Engineering Logistique, le Team Leader est responsable de l’équipe Data Engineering C-Logistics. Il intervient en tant que : Facilitateur d’équipe Coach technique Acteur de la performance Il s’appuie sur les principes Lean afin de : Optimiser les processus de delivery Analyser et traiter les causes racines des incidents de production Favoriser l’autonomie de l’équipe Garantir performance, scalabilité et fiabilité des solutions Assurer l’alignement avec la vision produit du Product Manager 🧭 Périmètre Production et pilotage des données & KPI pour les collaborateurs C-Logistics Partage de données avec les autres filiales du groupe Partage de données avec des clients B2B 👥 Équipe 4 développeurs 1 Lead Developer
Freelance

Mission freelance
DATA ANALYST SNOWFLAKE (BANQUE)

HAYS France
Publiée le
Databricks
Snowflake

3 ans
100-400 £GB
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du renforcement de la Direction des Risques chez notre client , nous recherchons un Data Analyst spécialisé Risk / Crédit , avec une forte capacité d’analyse de données, une bonne connaissance des produits et mécanismes bancaires, ainsi qu’une appétence pour les sujets réglementaires (risque crédit, risque climatique, cartographies des risques, roadmap S1/S2). Le poste n’est pas rattaché à l’IT , mais bien au métier Risk , avec un fort niveau d’exigence, un suivi rapproché du Directeur des Risques, et une contribution directe aux travaux réglementaires. Missions principales Analyse de données & contrôle qualité Les missions correspondent aux pratiques observées pour les Data Analysts spécialisés crédit/risk dans la banque : Explorer des bases de données, analyser la qualité de la data (cohérence, complétude, format, anomalies, reprises de données si nécessaire). Réaliser des analyses exploratoires (EDA) pour identifier tendances, risques, ruptures et impacts potentiels. Contrôler la fiabilité des données utilisées pour les modèles et reportings réglementaires. Production de modèles / datamining Contribuer à la production ou l’amélioration d’analyses et modèles simples liés au risk crédit et risk climatique . Produire ou enrichir certaines bases de données dédiées au risque. Réaliser des analyses quantitatives permettant d’éclairer les comités de risques. Technologies & environnement data Les outils alignés au marché bancaire pour les fonctions Risk & Data Analyst sont Snowflake, outils SQL, ETL, Databricks : Exploitation de Snowflake (idéal). Compétence souhaitée en Databricks pour certaines transformations ou analyses avancées. Capacité à travailler sur un ETL type Alteryx appréciée. Adaptation aux workflows data métier (pas d’équipes IT en support direct). Support métier & risk management Les équipes Risk Analyst collaborent étroitement avec les métiers et les comités de décision : Support analytique au métier Risk dans le traitement des données et la compréhension des indicateurs. Participation aux comités risques : présentation, documentation, justification des analyses. Contribution à la cartographie du risque climatique et au suivi des obligations réglementaires Risk Crédit . Documentation, reporting & conformité La création de rapports et de documentation est un élément clé du rôle Risk/Data Analyst en banque : Rédiger les documents explicatifs : analyses, méthodologies, transformations, décisions de traitement de données. Produire des notes, comptes rendus et supports pour les comités. Assurer la conformité des travaux avec les exigences réglementaires (S1/S2, risk crédit, risk climat).
Freelance

Mission freelance
Lead Data Scientist

Signe +
Publiée le
Big Data

12 mois
580-810 €
Lyon, Auvergne-Rhône-Alpes
Mission principale Leader technique et fonctionnel chargé de concevoir, déployer et industrialiser des solutions AI/ML utilisant des algorithmes avancés Identifier les opportunités d’amélioration data et piloter leur mise en œuvre dans des environnements cross-fonctionnels Encadrer et faire monter en compétences une équipe de Data Scientists et Data Analysts Garantir le cycle de vie complet des modèles (développement, déploiement, monitoring, amélioration continue) Collaborer étroitement avec les équipes métiers pour transformer les besoins business en solutions data Expérience requise 8 à 10+ ans d’expérience en Data Science Expérience confirmée en développement de code déployable et mise en production de modèles Expérience en développement logiciel production-ready et en environnement agile Expérience de management d’équipe Data Expérience en environnement healthcare ou manufacturing appréciée Compétences techniques Maîtrise des langages Data Science : Python, R, C++ Connaissance des bases de données SQL / NoSQL / Graph / Time series Expertise en AI/ML : Supervised & Unsupervised Learning Deep Learning LLMs Reinforcement Learning Federated Learning Time series forecasting Bayesian statistics et optimisation Expérience cloud et HPC : AWS, Azure, Spark CI/CD, orchestration et industrialisation des modèles Data visualization & storytelling (Tableau, Power BI, Streamlit) Expérience APIs enterprise et big data mining Connaissance des réglementations Data & AI Compétences comportementales Leadership et management d’équipe Communication écrite et orale excellente Capacité à aligner plusieurs équipes et parties prenantes Esprit analytique et résolution de problèmes Autonomie, proactivité et esprit d’équipe Formation Master ou PhD en mathématiques, informatique, ingénierie, statistiques ou domaine quantitatif équivalent
CDI

Offre d'emploi
Data scientist (F/H) (H/F)

█ █ █ █ █ █ █
Publiée le
Python
Pytorch
Scikit-learn

38k-45k €
Rennes, Bretagne

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Administrateur système & gestion de parc - (H/F)

SWING-ONE
Publiée le
Administration linux
Administration système
Azure

6 mois
Île-de-France, France
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un administrateur système & gestion de parc. Dans un environnement IT hybride et critique, vous assurez l’exploitation, l’évolution, la sécurité et la disponibilité des systèmes d’information. Vous intervenez sur des environnements Windows et Linux, pilotez la gestion du parc informatique et garantissez le maintien en condition de sécurité des équipements (EDR, patch management, conformité). MISSIONS PRINCIPALES : Administrer et maintenir les serveurs du Système d’Information Garantir la disponibilité et la performance des environnements Exploiter et administrer la solution de gestion de parc informatique Garantir l’exhaustivité et la fiabilité des informations Gérer les services d’infrastructure : DNS, DHCP, AD, GPO, NTP, fichiers, impression Automatiser les tâches récurrentes (Bash, PowerShell) Administrer Microsoft 365 (Exchange Online, SharePoint, OneDrive, Teams) Gérer Entra ID (Azure AD) : identités, MFA, accès conditionnels
CDI

Offre d'emploi
Data Engineer

CGI
Publiée le
ETL (Extract-transform-load)
SGBD
SQL

35k-45k €
Nantes, Pays de la Loire
Si vous souhaitez intégrer nos équipes à Nantes et accompagner les plus grands acteurs de secteurs variés, cette annonce est susceptible de vous intéresser. Rejoindre notre communauté Data à Nantes, c’est intégrer un collectif d’experts passionnés, partager les meilleures pratiques d’ingénierie, monter en compétences sur des environnements techniques variés et contribuer à des projets à fort impact pour nos clients grands comptes. Vous intervenez chez nos clients ou au sein de nos équipes projets pour concevoir, construire et faire évoluer des plateformes de données performantes et industrialisées. Acteur clé de la chaîne de valeur Data, vous participez à la mise en œuvre d’architectures fiables, scalables et orientées performance, dans des contextes souvent menés en méthodologie agile. Fonctions et responsabilités : Sous la responsabilité d'un Chef de Projet / Scrum Master, vos principales missions sont : - Concevoir, développer et maintenir des flux d’intégration de données (ETL/ELT) - Analyser les développements réalisés et accompagner les équipes techniques afin d’optimiser la performance, la qualité et la pertinence des solutions mises en œuvre - Industrialiser les pipelines de données (déploiement, supervision, gestion des erreurs) - Garantir la qualité, la cohérence et la performance des flux en production - Collaborer avec les équipes architecture, bases de données et infrastructure - Contribuer aux bonnes pratiques Data Engineering (versioning, CI/CD, performance tuning) - Assurer la mise en place d'actions d'amélioration continue sur l'ensemble des services offerts aux clients En nous rejoignant, vous bénéficiez notamment des avantages suivants : - Offre complète de formations : techniques, métiers, développement personnel - Qualité de vie au travail : jusqu’à 3 jours de télétravail par semaine, 27 jours de congés payés, RTT, congés ancienneté et enfant malade, programme santé & bien-être - Avantages sociaux : régime d’achats d’actions, participation, PEE, Compte Epargne Temps Et bien d'autres encore !
Freelance

Mission freelance
Business Analyst technico-fonctionnel - Cybersécurité (H/F)

LeHibou
Publiée le
Business Analysis
Business Analyst
Cybersécurité

6 mois
400-550 €
Toulouse, Occitanie
Notre client dans le secteur Réseaux et télécommunications recherche un/une Business Analyst technico-fonctionnel - Cybersécurité H/F Description de la mission : Dans le cadre d'un renfort de compétences au sein de ses projets, notre client souhaite faire appel à un freelance expérimenté en tant que Business Analyst. Rattaché à l'un des directeurs de projet de la BU Engineering de notre client, vous serez en charge des activités suivantes : Recueil et formalisation des besoins auprès des métiers et des différentes parties prenantes. Rédaction des spécifications fonctionnelles et retranscription technique auprès des différents product Owner Suivi et pilotage de l'avancement des différents projets et participations au PI Planning avec le reste des équipes Mise en place de dashboard / KPIs et autres reporting auprès de directeur de projet Un background technique sur des environnements cyber/réseaux et/ou Iot est obligatoire pour ce poste. La maîtrise de l'anglais est également nécessaire. Mission à pourvoir immédiatement
Freelance

Mission freelance
Chef de projet Data H/F Freelance Poitiers (86)

Wekey
Publiée le
Gestion de projet

6 mois
460-500 €
Poitiers, Nouvelle-Aquitaine
Hello ! Nous c’est WEKEY ! Nous ne sommes ni une ESN ni un cabinet de recrutement. Aaah mais qui sommes-nous alors ? Pour tout savoir sur nous et votre future mission c’est par ici 😁⬇ Vous êtes chef de projet Data H/F et vous recherchez une mission en freelance ? Nous avons le projet qu’il vous faut pour l'un de nos clients basé à poitiers. CE QUI VOUS ATTEND 👀 Dans le cadre de la mission votre rôle sera : Cadrage & Analyse Métier Recueillir et comprendre les besoins des Directions Métiers. Identifier les enjeux fonctionnels et les traduire en exigences claires. Animer les ateliers de conception et les comités Projet. Modélisation & Architecture Fonctionnelle Concevoir et modéliser les structures Data : Data Lake, Datamarts métiers, modèles relationnels. Définir les règles de gestion : déduplication, qualité, normalisation, RGPD… Rédaction & Spécifications Rédiger l’ensemble des livrables : contrats d’interface, spécifications fonctionnelles et techniques. Garantir la qualité, la pertinence et la cohérence documentaire. Pilotage & Coordination Organiser, suivre et orchestrer les projets Data end-to-end. Piloter une équipe transverse : Data Engineers & Data Managers. Réaliser les recettes fonctionnelles et s’assurer de la conformité. Accompagnement & Acculturation Aider les métiers à monter en compétence sur les solutions Data mises à disposition. Diffuser les bonnes pratiques, contribuer à l'amélioration continue. Participer à l’animation de la communauté Data. Engagement & Qualité Garantir le respect des engagements coûts / délais / qualité. Contribuer à l’évolution des méthodologies internes de la Data Factory.
Freelance

Mission freelance
Data Engineer H/F

OUICODING
Publiée le

1 mois
420-500 €
Rennes, Bretagne
Missions principales -Industrialiser et optimiser les traitements de données en s'appuyant sur Dataiku (scénarios, plugins, recettes avancées...). -Mettre en place une architecture data fiable et optimisée, principalement sur des solutions AWS (S3, Redshift, le Common Data Hub Engie). -Développer des solutions techniques de collecte de la donnée via des API. -Modéliser les données nécessaires aux analyses et aux usages métiers. -Assurer la qualité, la sécurité et le monitoring des flux de données. -Collaborer avec la Data Analyst pour garantir la mise à disposition des données pertinentes. -Participer à la définition des bonnes pratiques Data et à leur diffusion au sein de l'entreprise. -Contribuer à la documentation technique et à l'amélioration continue des environnements. -Assurer une veille technologique sur les solutions de stockage et traitement des données

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

6631 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous