Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 971 résultats.
Freelance

Mission freelance
Data engineer

VISIAN
Publiée le
Cloud
Finance
Nosql

1 an
600-750 €
Île-de-France, France

Contexte de la mission Dans le cadre de la création d’un nouveau DataHub dédié au Cash Management , nous recherchons un(e) Data Engineer expérimenté(e) pour accompagner une équipe IT spécialisée dans les services financiers, sur un projet stratégique de centralisation et de valorisation des données opérationnelles. L’objectif de ce DataHub est de fournir une infrastructure robuste, évolutive et exploitable pour les différents consommateurs de données (équipes métiers, reporting, analytics…). Vous interviendrez à la fois sur la conception technique , la modélisation des données , les choix d’architecture , ainsi que sur la préparation de la migration vers le cloud . Vos missions Phase 1 – Mise en place du DataHub : Participer aux choix technologiques pour le stockage et l’alimentation des données Concevoir des modèles de données robustes et évolutifs Accompagner les équipes applicatives dans la définition des modèles de données orientés consommateurs Proposer des bonnes pratiques d’exploitation des données (qualité, accessibilité, gouvernance) Phase 2 – Préparation de la migration cloud : Étudier les solutions de base de données cloud proposées (SQL et NoSQL) Analyser les avantages/inconvénients de chaque solution Préparer les stratégies de migration des données Participer à la conception et au développement des pipelines de migration Travailler en coordination avec une équipe offshore basée en Asie pour le développement, les tests unitaires, et les mises en production

CDI

Offre d'emploi
Data Ops H/F

TOHTEM IT
Publiée le

37k-45k €
Toulouse, Occitanie

Dans le cadre de l’évolution de son infrastructure Big Data, notre client, un organisme public recherche un Administrateur / Expert Hadoop pour intervenir sur un projet de migration de la plateforme Hortonworks Data Platform (HDP) vers Cloudera Data Platform (CDP) . Sous la responsabilité du Product Owner et de l’ Architecte Big Data , le consultant interviendra sur l’ensemble des phases techniques du projet. Objectifs de la mission : Participer à la migration du socle Big Data de HDP vers CDP Assurer l’ administration de la plateforme CDP Installer et configurer les composants techniques de la solution Réaliser des développements et configurations spécifiques : scripts Shell, automatisation via Ansible, intégration DevOps Rédiger des modes opératoires et documentations techniques à destination des équipes internes ️ Environnement technique : Hadoop (HDP / CDP) Kerberos, Ranger, Hive, Yarn, Oozie, Spark Ansible, Shell scripting GitLab Docker (notions de conteneurisation)

Freelance
CDI

Offre d'emploi
Développeur MSBI - AZURE DATA FACTORY

BEEZEN
Publiée le
MSBI

3 mois
40k-45k €
310-500 €
Paris, France

La mission s’inscrit principalement dans les évolutions de la plateforme Data utilisant principalement les outils SSIS , ADF et python Dans ce cadre, les taches qui seront proposées sont les suivantes : • Participation au cadrage de la solution à implémenter • Développement des US • Suite de la recette, de l’UAT et de la production. • Maintenance ; • Rédactions de documentation • Amélioration continue du modèle de développement • Veille au respect des standards de développement. Profil recherché Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Stack Technique : • Très bonne connaissance des outils BI de Microsoft SQL SERVER 2019/2022 (SSIS,SSRS), • Très bonne connaissance en base de données relationnelles et SQL, • Très bonne connaissance de la plateforme Azure BI Data Factory • Compétences Python , librairie Pandas appréciés. • Bon niveau de connaissance sur Azure DevOps NATIONALITE FRANCAISE EXIGEE

CDI

Offre d'emploi
Data Engineer Look ML

Fnac Darty
Publiée le

60k-70k €
Ivry-sur-Seine, Île-de-France

En tant que BI engineer Looker/LookML, vous serez en charge de concevoir, développer et d'optimiser des solutions de reporting adaptées aux besoins de nos différents métiers. Votre expertise avancée en LookML/Looker, vos connaissances et compétences sur d'autres outils de visualisation telles que MicroStrategy et/ou QlikView, combinée à une solide maîtrise de SQL, sera un atout essentiel pour réussir dans ce rôle. Ø Missions principales : · Concevoir, développer et maintenir les modèles de données et couche sémantique dans LookML. · Concevoir et développer des tableaux de bord et rapports à l'aide des outils Looker, MicroStrategy et QlikView. · Intégrer différentes sources de données. · Collaborer avec les équipes métiers pour comprendre leurs besoins et les traduire en solutions de reporting performantes. · Assurer la maintenance, la résilience et l'évolution des solutions existantes. · Effectuer les recettes techniques et fonctionnelles des traitements développés. · Mettre en place des mécanismes de monitoring pour assurer le bon fonctionnement et la fiabilité des solutions. · Participer à l'optimisation des modèles de données et à la création d'infrastructures de reporting. · Garantir la qualité, la fiabilité et la précision des données présentées. · Rédiger les livrables et la documentation technique associée pour faciliter la pérennité et la transmission des connaissances. · Participer à la gouvernance des couches sémantiques et des reportings. · Former les utilisateurs finaux et leur fournir un support technique lorsque nécessaire.

Freelance

Mission freelance
PMO / Coordination Projets Data & IA – Pilotage Budgétaire et Reporting IT

CAT-AMANIA
Publiée le
AI
Analyse
Organisation

2 ans
340-450 €
Île-de-France, France

Nous recherchons un(e) PMO expérimenté(e) pour assurer le suivi opérationnel des projets et budgets d’une Direction Data & Intelligence Artificielle. Vos missions : Piloter le suivi budgétaire et coordonner les instances financières des projets IT. Assurer le suivi des projets Data & IA : relance des équipes, suivi des KPIs, mise à jour des tableaux de bord et reporting. Organiser et animer les rituels et séminaires pour favoriser la collaboration des équipes. Participer à des projets transverses et à la veille technologique liée à la Data & IA.

CDI

Offre d'emploi
Data Analyst Tableau / Power BI

CAT-AMANIA
Publiée le
Dataiku
Microsoft Power BI
Tableau software

40k-55k €
Levallois-Perret, Île-de-France

Cette équipe a pour responsabilité de maintenir et de mettre à disposition des solutions de Dataviz (Qliksense, Tableau et PowerBI). Dans son offre de service le Dataviz Studio propose aussi de développer et de maintenir des dashboards pour les différentes directions Métiers. La mission nécessite des compétences fonctionnelles avancées sur Tableau et sur PowerBI. Dans le cadre des projets ou maintenances évolutives et en relation avec la direction Métier à l'origine du besoin et son patrimoine IT correspondant, les principales missions de la prestation sont : - Analyser et challenger les besoins - Modéliser la solution cible - Développer le socle de données et développer les dashboards - Apporter du support et accompagner les utilisateurs finaux Dans le cadre des montées de versions de PowerBI RS, les attendus sont : - Participer au cadrage et pilotage du projet - Réaliser les TU et TNR - Mise à jour de la documentation Des connaissance de la plateforme DataIku serait un plus

Freelance
CDI

Offre d'emploi
Data Ingénieur Hadoop – Plateforme Big Data

VISIAN
Publiée le
Ansible
Dataiku
Hadoop

1 an
10k-46k €
100-430 €
Île-de-France, France

🎯 Contexte de la mission : Vous rejoignez une équipe agile (Tribe composée de 3 Squads) dédiée à l’administration, à l’évolution et à la sécurisation d’une plateforme Big Data stratégique utilisée pour les calculs réglementaires et financiers d’un grand groupe bancaire. Vous interviendrez au sein de la Squad Data Platform , qui assure l’expertise technique sur la stack (Cloudera Hadoop, Linux, Ansible, K8s, Dataiku, Tableau, etc.). 🚀 Vos missions : Assurer le maintien en conditions opérationnelles de la plateforme Gérer les incidents, évolutions, et montées de version Implémenter des solutions IT répondant aux besoins métiers (calculs réglementaires, stress tests, reporting) Participer à l’ automatisation des déploiements via Ansible Contribuer à l’ amélioration continue de la plateforme (sécurité, obsolescence, résilience, documentation, etc.) Proposer des solutions adaptées aux différents composants techniques : Hadoop (HDFS, Hive, Spark) Dataiku DSS, Tableau Applications internes (Java, Angular, Spark, Shell) Participer à la rédaction de documentation technique et à la conception des solutions dans le respect des normes IT internes

CDI

Offre d'emploi
CHEF(FE) DE PROJET FLUX DATA AZURE DATABRICKS

GROUPE ALLIANCE
Publiée le
Azure Data Factory
Databricks

55k-60k €
Paris, Île-de-France

ACCROCHE SI TU ADORES TRAITER DES TERRITOIRES DE DONNÉES XXL, CETTE ANNONCE EST POUR TOI... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à la gestion de données massives et distribuées Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur , tu participeras : Les pipelines Big Data, tu concevras et développeras Les traitements batch et temps réel, tu industrialiseras La qualité et la fiabilité des données, tu sécuriseras L’architecture des flux de données, tu mettras en œuvre Les performances et la scalabilité, tu optimiseras Les solutions cloud ou on-premise, tu intégreras Ton équipe projet, tu accompagneras Aux instances data et techniques, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de ans minimum en ingénierie Big Data Expert(e) en Habile avec AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !

Freelance

Mission freelance
Data Architecte AWS

Cherry Pick
Publiée le
Amazon S3
Apache Airflow
AWS Cloud

24 mois
600-650 €
Paris, France

Notre client recherche un Architecte Data pour concevoir et superviser la convergence des données issues de sources hétérogènes au sein d’une plateforme cloud AWS à grande échelle. L’objectif est de définir l’architecture cible, modéliser le schéma global, et assurer la cohérence technique et la performance de la plateforme. L’environnement technique inclut : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : chatbot IA, moteur de recommandation, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Définir l’ architecture cible du data layer convergé dans un environnement AWS. Modéliser les données (conceptuel, logique, physique) sur Snowflake et autres bases cibles. Sélectionner les outils et normes d’intégration adaptés aux besoins. Participer au développement et à l’automatisation des pipelines et transformations de données. Superviser la convergence des données multi-source et garantir leur cohérence. Contribuer aux déploiements via Terraform et GitLab CI/CD. Documenter l’architecture et les référentiels techniques. Appliquer les bonnes pratiques de gouvernance, qualité et sécurité des données.

Freelance

Mission freelance
Développeur Big Data

CAT-AMANIA
Publiée le
Big Data
FastAPI
PySpark

12 mois
330-440 €
Lyon, Auvergne-Rhône-Alpes

Description de l'équipe Concevoir, développer et exploiter des produits, services et études innovants pour accompagner les acteurs internes et externes vers la transition écologique en contribuant à l’insertion des VE et des ENR. Activité principale Traitement de données, analyses statistiques Modélisation, création d’algorithmes, machine learning Production de rapports, d’études, de présentations techniques et restitutions aux commanditaires. Accompagnement des développeurs pour l’intégration du modèle dans une application informatique. Activité secondaire Suivi des évolutions méthodologiques en data science appliquée aux réseaux électriques Optimisation des modèles existants

Freelance
CDI

Offre d'emploi
Data Engineer GCP (F/H)

CELAD
Publiée le
Google Cloud Platform (GCP)

12 mois
42k-50k €
450-470 €
Lille, Hauts-de-France

CDI/Freelance/Portage salarial 💼 – 2 jours de télétravail/semaine 🏠 – 📍 Lille (59) – 5 ans d'expérience minimum Vous souhaitez contribuer à la valorisation de la donnée dans un environnement Retail en pleine transformation digitale ? Vous aimez concevoir des pipelines robustes, fiabiliser les flux et exploiter la puissance du cloud GCP ? Alors cette opportunité est faite pour vous ! 🚀 Vos missions : - Garantir la fiabilité et la disponibilité des données pour les équipes métiers, Data Analysts et Data Scientists - Définir et mettre en place la gouvernance de la donnée et son cycle de vie dans un contexte Retail (gestion de la donnée client, transactionnelle et produit) - Intégrer et superviser les données issues de multiples sources (e-commerce, magasins, CRM, etc.) dans le Data Lake GCP - Développer, nettoyer et structurer les pipelines de données en assurant leur qualité, sécurité et conformité réglementaire (RGPD) - Produire et maintenir les livrables : Data Lake partagé, cartographie des données, code, reporting et documentation technique

CDI

Offre d'emploi
Architecte Expérimenté (Infra, Cloud, DevOps, Digital ou Data) H/F

JEMS
Publiée le

60k-70k €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : 03rvj14eas

CDI

Offre d'emploi
Data Architecte Databricks - Paris

KOMEET TECHNOLOGIES
Publiée le
Databricks

65k-80k €
Paris, France

Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Freelance
CDI

Offre d'emploi
Data Analyst Observabilité

Lùkla
Publiée le
ELK
Grafana
Kibana

3 ans
49k-60k €
400-550 €
Yvelines, France

Dans le cadre de la transformation digitale et de la montée en puissance des systèmes d'information, notre client, un acteur majeur du secteur bancaire, renforce son équipe dédiée à l'observabilité de ses systèmes. L’objectif est de garantir la visibilité, la performance et la fiabilité des applications critiques via une meilleure exploitation des données de monitoring, de logs et de métriques. Missions principales En tant que Data Analyst Observabilité , vos missions incluront : Collecte et analyse des données issues des outils de monitoring (APM, logs, métriques, traces, etc.) Création de dashboards pertinents pour piloter la santé des systèmes (via Grafana, Kibana, Datadog ou équivalent) Mise en place d’indicateurs de performance et d’alerting pour prévenir les incidents Collaboration avec les équipes SRE, DevOps et IT Ops pour identifier les points de friction et axes d’amélioration Contribution à la définition de la stratégie d’observabilité globale (standardisation, automatisation, industrialisation) Participation aux post-mortems et analyse des incidents pour améliorer la résilience des systèmes

Freelance
CDI

Offre d'emploi
Data scientist - Retail - 3 à 5 ans exp.

CAPEST conseils
Publiée le
Data science
Google Cloud Platform (GCP)
Python

6 mois
Ivry-sur-Seine, Île-de-France

Contexte Dans le cadre du renforcement des initiatives Data et IA, le Data Scientist jouera un rôle clé dans la réalisation de projets stratégiques à fort impact. Il/elle interviendra sur des problématiques variées telles que : Prédiction du churn Optimisation des campagnes marketing et promotionnelles Analyse du parcours client Recommandation de produits Anticipation de la demande Activation d’audiences Le poste implique une collaboration étroite : Avec les équipes produit pour comprendre les enjeux métiers, commerciaux et opérationnels. Avec les équipes techniques , notamment les Data Engineers, pour identifier, exploiter et valoriser les données disponibles. Missions Le/la Data Scientist interviendra sur l’ensemble du cycle de vie des projets data : 1. Cadrage & Analyse Recueillir et analyser les besoins métiers. Proposer des solutions de Data Science adaptées aux cas d’usage identifiés. Participer à la qualification, priorisation et pilotage des projets IA. 2. Préparation des données Analyser la qualité et la pertinence des données disponibles. Réaliser les transformations nécessaires pour exploiter les données de manière optimale. 3. Modélisation & Industrialisation Développer des modèles prédictifs en mode POC. Industrialiser les solutions avec les outils et bonnes pratiques MLOps. Documenter les modèles et pipelines mis en œuvre. 4. Valorisation & Suivi Créer des reportings adaptés aux utilisateurs (via Looker ou autres outils). Évaluer les performances et les impacts business des modèles déployés. Organiser les instances de suivi projet (comités, revues, etc.). 5. Animation & Collaboration Contribuer à l’animation des sujets IA dans l’organisation. Participer à la montée en compétence de l’équipe Data Science. Livrables attendus Analyses exploratoires et études statistiques Modèles de Machine Learning (prototypes et versions industrialisées) Tableaux de bord et visualisations Documentation technique et fonctionnelle

Freelance

Mission freelance
Data Analyst Confirmé

STHREE SAS pour HUXLEY
Publiée le

18 mois
750-800 €
Roissy-en-France, Île-de-France

A. Analyse des données existantes Étudier les structures de données complexes issues de systèmes Mainframe. Travailler avec les équipes techniques pour comprendre les règles d'extraction et de traitement des données. Participer à l'analyse des flux batch et de leur transformation vers une architecture cible. B. Data Mapping & Transformation Élaborer des documents de mapping détaillés entre les anciennes sources (in/out)Mainframe et la cible (Data Lake…). Spécifier les règles de transformation (calculs, concaténations, pivotages) à intégrer dans les outils ETL. Collaborer avec les développeurs ETL/API pour tester et valider les jobs de transformation. C. Contrôle qualité et validation Mettre en place un cadre robuste de contrôle qualité des données migrées. Réaliser des audits de cohérence entre l'ancien et le nouveau système (réconciliation des indicateurs clés, traçabilité). Gérer les phases de validation progressive pour sécuriser les mises en production par lots (cut-over partiels, big bang, etc.). D. Continuité de reporting métier Analyser les besoins de reporting opérationnel et réglementaire pendant la période transitoire. Garantir que les rapports critiques (finance, risque, conformité, etc.) restent disponibles et cohérents. Identifier les écarts éventuels entre les jeux de données Mainframe et les données migrées, et alerter sur les impacts. E. Documentation & Suivi Documenter l'ensemble des règles de mapping, des spécifications de qualité et des plans de test. Produire des dashboards de suivi de migration, de la qualité des données, et de traçabilité. Participer aux comités de suivi projet pour exposer les résultats d'analyse et les indicateurs de qualité.

971 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous