Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 426 résultats.
Alternance
CDI

Offre d'emploi
ALTERNANT(E) DATA SCIENTIST - H/F

█ █ █ █ █ █ █
Publiée le
Big Data
Python
SQL

Chambéry, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI
CDD

Offre d'emploi
DataOps & Administrateur Hadoop TJM MAX 580

Craftman data
Publiée le
Ansible
Apache Hive
Apache Spark

1 an
40k-45k €
400-580 €
Paris, France
Missions et responsabilités principales1. Déploiement et industrialisation des clusters Big Data Déploiement automatisé de clusters via des pipelines CI/CD Utilisation d’outils d’automatisation pour l’installation et la configuration des composants Adaptation des architectures selon les besoins projets (dimensionnement, sécurité, performance) Contribution à l’industrialisation des processus (CI/CD, Infrastructure as Code) Déploiement et configuration d’outils de gestion de plateforme Installation et configuration d’interfaces utilisateurs pour les environnements analytiques 2. Stack Big Data administrée Administration et intégration des composants suivants : Service d’annuaire : gestion des identités Service d’authentification : sécurisation des accès Système de fichiers distribué : gestion du stockage Framework de traitement distribué : gestion des ressources et exécution Outil de gestion des accès : politiques de sécurité Moteur de calcul distribué Moteur SQL pour l’accès aux données Base de données relationnelle associée aux services Service de coordination distribué Responsabilités associées : Installation, configuration et paramétrage avancé Gestion des dépendances inter-services Maintien de la cohérence des versions Optimisation des performances et de la stabilité 3. Provisionnement et préparation des environnements Provisionnement des machines virtuelles Préparation des prérequis systèmes (OS, stockage, réseau) Automatisation des installations via scripts et outils d’orchestration Gestion des environnements (développement, test, production) 4. Observabilité et supervision Mise en place et maintien de la supervision : Collecte des métriques Gestion et routage des alertes Centralisation et exploitation des logs Visualisation via tableaux de bord Définition et amélioration des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des plateformes Big Data Support technique aux équipes projets et utilisateurs Gestion des incidents et demandes d’évolution Montées de version et correctifs Suivi de la capacité (CPU, RAM, stockage) Documentation technique et mise à jour des procédures Rituels et interactions Participation aux rituels d’équipe Coordination avec : Équipes infrastructure et exploitation Équipes projets data / métiers Référents sécurité Accompagnement des équipes dans l’usage de la plateforme Environnement technique global CI/CD & DevOps : outils d’intégration et de déploiement continus, gestion de code, qualité Automatisation : outils d’orchestration et scripting Infrastructure : virtualisation, conteneurisation Big Data : écosystème de traitement distribué Observabilité : outils de monitoring, logs et visualisation Points de vigilance Forte interdépendance des composants de la plateforme Sensibilité aux problématiques de capacité et de performance Importance de l’anticipation via la supervision Respect strict des standards de sécurité et des procédures internes Coordination transverse nécessaire pour les déploiements et évolutions majeures Charge estimative Déploiement d’un cluster complet : variable selon dimensionnement et spécificités projet MCO : charge récurrente hebdomadaire Incidents critiques : charge ponctuelle selon criticité
Freelance

Mission freelance
Data Analyst Monétique (F/H)

CELAD
Publiée le
Azure
Big Data
Cloud

12 mois
500-530 €
Paris, France
Data Analyst Monétique (F/H) Envie d’un nouveau challenge… CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Data Analyst Monétique pour intervenir chez un de nos clients dans le secteur bancaire . 💻💼 🧭 Contexte de la mission Au sein de la Data Factory , la squad Data Monétique est composée d’environ 10 personnes et s’inscrit dans l’écosystème Data des moyens de paiement Cette équipe est en charge de : L’alimentation des équipes métiers et des autres squads data en données de paiements et données clients La production et diffusion de reportings et tableaux de bord power bi à destination des métiers et des établissements du groupe. L’alimentation de systèmes opérationnels et d’interfaces clients en données de paiements L’accompagnement des équipes métiers dans l’exploitation des données de paiement 🎯 Vos missions Dans ce contexte, vous interviendrez en tant que Data Analyst sur les activités suivantes : Participer à la collecte, la transformation et la gestion des données afin de garantir leur intégrité, qualité et sécurité Contribuer à l’animation de groupes de travail avec les sponsors, Business Analysts et membres de la squad (Data Engineers, Data Viz, BA…) Réaliser les recettes des traitements d’intégration et de transformation de données Rédiger et documenter les user stories, spécifications fonctionnelles et cahiers de recette en lien avec le Product Owner Accompagner et former les utilisateurs sur les usages des données et des outils de restitution
CDI
Freelance

Offre d'emploi
Data intégration Senior (H/F)

1G-LINK CONSULTING
Publiée le
AWS Cloud
CI/CD
Kubernetes

12 mois
Paris, France
Contexte : Dans le cadre de la construction du datalake des équipes Group Digital & IT International Cybersécurité de notre client, nous recherchons un(e) Consultant Data Integration Senior . Missions : Organiser et piloter votre activité ainsi que celle d’un consultant junior Garantir le respect des délais, de la qualité de livraison et des bonnes pratiques Assurer une communication claire et régulière sur l’avancement Concevoir et implémenter les flux d’ingestion de données (API, SFTP, DB) Développer et orchestrer les pipelines avec Azure Data Factory Alimenter et structurer le datalake dans Snowflake Concevoir des modèles de données (tables de faits, dimensions) Préparer les données pour les usages analytiques et le reporting Collaborer à la restitution via Power BI Participer à la mise en place de futures briques techniques telles que Apache Airflow (via Astronomer) et DBT Contribuer à l’amélioration continue de l’architecture data Comprendre les enjeux cybersécurité (gestion des assets, conformité, outils de sécurité) Exploiter les données issues des outils cyber pour produire des indicateurs pertinents Compétences techniques: Expertise sur Snowflake (modélisation, performance, structuration) Maîtrise de Azure Data Factory Bonne expérience en modélisation décisionnelle (schémas en étoile : faits/dimensions) Expérience en intégration de données multi-sources (API, SFTP, bases de données) Bon niveau en SQL Appréciées Expérience avec Power BI Connaissance de Apache Airflow (ou Astronomer) Notions ou expérience avec DBT Connaissance des environnements cloud Azure
CDI

Offre d'emploi
DATA STEWARD CRM / DATA GOVERNANCE H/F

Savane Consulting
Publiée le

60k-75k €
Seine-et-Marne, France
Contexte du poste : Nous recherchons un Data Steward afin d’intervenir au sein de la Direction Commerciale, dans le cadre du déploiement d’un CRM Sales. Vous interviendrez sur un périmètre stratégique (offres commerciales, contrats, produits) avec un enjeu clé autour de la migration, de la qualité et de la gouvernance des données. Vous intégrerez un programme structurant avec des jalons majeurs à court terme, où la qualité des données sera déterminante pour la réussite des mises en production. Votre rôle sera central pour assurer la fiabilité, la structuration et la valorisation des données métiers, en lien étroit avec les équipes commerciales, la DSI et les équipes projet CRM. Missions principales : Piloter la migration des données vers le CRM (stratégie, mapping source/cible, fichiers d’import) Formaliser les cycles de vie des référentiels (contrats, campagnes, produits) Consolider les impacts liés aux évolutions des applications (décommissionnement, couplage SI) Animer des ateliers métiers pour accompagner les changements de pratiques Définir et mettre en œuvre les règles de qualité des données (complétude, cohérence, fraîcheur) Mettre en place le monitoring de la qualité (Power BI ou équivalent) Produire les supports de formation liés aux bonnes pratiques data Contribuer au catalogage des données dans Collibra Documenter les référentiels et les univers de données (offres, contrats, produits) Définir les règles de gouvernance de la donnée avec les parties prenantes Assurer le suivi continu de la qualité des données Documenter les impacts des évolutions des référentiels sur le SI Produire les reportings et bilans de suivi
Freelance

Mission freelance
Testeur / Data Analyst (H/F) - 92

Mindquest
Publiée le
Databricks
JIRA
Microsoft SQL Server

3 mois
300-420 €
Châtillon, Île-de-France
Au sein de la Direction des Systèmes d’Informations Mutualisés, vous rejoindrez le Train DATA, en charge des projets BI et Data pour l’ensemble des enseignes et des fonctions d’appui de notre client. En tant que QA doté de compétences en analyse de données, vous intégrerez le pôle Qualité Data et serez rattaché à la squad Équipement de la Maison. Votre rôle consistera à préparer et exécuter les cas de tests, constituer les jeux de données nécessaires, assurer le suivi des défauts identifiés et contribuer à l’amélioration continue de la qualité des données. Le Data Lab fonctionne en organisation agile et réunit des équipes pluridisciplinaires favorisant la collaboration et l’autonomie. Vous travaillerez avec des rituels agiles, cadrés, trimestriels et des cycles de réalisation de 3 semaines (sprint planning, affinage, sprint review et daily meeting). Vos missions : * Participer aux ateliers/rituels agiles * Réaliser la stratégie de test * Identifier et réceptionner les environnements de test * Analyser et évaluer les cas d'usage/User Story * Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données * Exécuter les cas de tests * Créer et suivre les défauts avec les différentes parties prenantes * Maintien du référentiel de test * Réaliser le PV de recette * Présentation des sujets en CAB pour passage en production * Une expérience/compétence dans le retail serait un plus. En plus du test fonctionnel, vous serez amené à effectuer des tests d’intégration 2 à 2, des tests de bout en bout ainsi que des tests de surface dans un contexte Data.
Freelance

Mission freelance
LUXEMBOURG - Consultant Audit Data / Data Provisioning (H/F)

FUZYO FRANCE
Publiée le
Audit
Data Engineering
IBM DataStage

1 mois
Luxembourg
Mission courte – 4 à 6 semaines mission sur site du client au LUXEMBOURG Nous recherchons un consultant senior en data pour une mission d’évaluation et de conseil au sein d’une équipe Data / Data Provisioning pour un client au LUXEMBOURG. Objectif de la mission Analyser les processus data existants (collecte, intégration, transformation, mise à disposition) Évaluer l’ efficacité organisationnelle et technique Auditer les outils data (Data Integration, pipelines, orchestration) Identifier les points de friction et risques Proposer des recommandations concrètes et priorisées Construire un plan d’actions chiffré (jours/homme) Attendus Cartographie des processus existants Analyse des forces, faiblesses et risques Recommandations d’optimisation Plan d’actions priorisé et chiffré
Freelance

Mission freelance
: Assistant RSSI e-Commerce & Big-Data 500 e par jour

BI SOLUTIONS
Publiée le
Big Data
Cybersécurité

2 ans
400-500 €
Île-de-France, France
: Assistant RSSI e-Commerce & Big-Data 500 e par jour Assister le RSSI dans la gestion de la gouvernance, la sécurisation des processus, la sécurité des développements, et la sécurité des infrastructures liées au e-Commerce et à la data de Carrefour France, regroupant plusieurs métiers tel que Voyages, Spectacles, Cartes Cadeaux, eCommerce Retail et BigData; en apportant une expertise technique et en assurant un rôle de challenge auprès des équipes informatiques et métiers. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. ● Connaissances des contraintes, technologies et risques liés à un site e-Commerce et aux services aux clients ● Connaissances des contraintes, technologiques et risques liés aux développements d’application web et mobile à destination des clients, mais aussi des collaborateurs. ● Connaissances des best practices de développement et des référentiels associés (OWASP) ● Connaissances des contraintes et technologies spécifiques au Big Data et la gestion du cycle de vie de la donnée et des contraintes réglementaires liées à la gestion de données personnelles. ● Sensibilité à la fraude client ● Techniques d’attaques courantes ● Bonnes pratiques ANSSI ● Protocoles de communications couramment utilisés ● Méthode Ebios RM d'analyse de risques 500 e par j
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

35k-42k €
Strasbourg, Grand Est
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Strasbourg - Expérience de 2 ans minimum Vous aimez transformer les données en décisions concrètes ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, intervenant dans le secteur bancaire. Contexte : Vous interviendrez directement sur des projets d’intégration et d’exploitation de données, contribuant à rendre l’information accessible et exploitable pour les équipes métier. Voici un aperçu détaillé de vos missions : - Concevoir et maintenir des processus d’intégration de données (ETL / ELT), idéalement avec Semarchy xDI (anciennement Stambia) - Participer à la modélisation de systèmes décisionnels et à l’organisation des données - Manipuler et optimiser les bases de données avec le SQL - Collaborer avec les équipes BI sur des outils comme SAP/BO Situation géographique : Strasbourg (67)
CDI

Offre d'emploi
Data Scientist / AI Engineer (Agentique) (H/F)

█ █ █ █ █ █ █
Publiée le
Docker
Python
Pytorch

52 500 €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer / Développeur Python Senior (H/F)

Crafteam
Publiée le
API REST
Flask
Pandas

1 an
450-540 €
Saint-Denis, Île-de-France
Nous recherchons un Data Ingénieur / Développeur Python Senior pour intervenir sur des projets à forte composante data et développement logiciel. Vous interviendrez sur la conception, le développement et l’optimisation de solutions techniques autour de la data et des APIs, dans un environnement exigeant et structuré. Vos principales missions : Concevoir et développer des applications en Python orienté objet Développer et maintenir des APIs REST Manipuler et exploiter des données complexes (notamment NetCDF, JSON ) Mettre en place des visualisations de données avec Pandas et Plotly Participer à l’intégration et à l’industrialisation des solutions via Docker Contribuer aux chaînes CI/CD avec GitLab / GitLab CI Participer à l’amélioration de la qualité du code avec SonarQube et Checkmarx Collaborer avec les équipes frontend sur des interfaces en Vue.js ou Angular Intervenir dans un environnement Agile (Scrum) Vous pourrez également être amené(e) à : Animer des ateliers techniques ou fonctionnels Formaliser les besoins et les conceptions techniques Être force de proposition sur les choix d’architecture Accompagner et coacher des profils plus juniors
CDI

Offre d'emploi
Data Analyst F/H (H/F)

█ █ █ █ █ █ █
Publiée le
Python
SQL

52k-57k €
France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Ingénieur Data SAS / Teradata – Environnement Banque (H/F)

Deodis
Publiée le
Data quality
Gouvernance

1 an
40k-45k €
400-480 €
Île-de-France, France
Nous recherchons un(e) Data Engineer spécialisé(e) SAS / Teradata pour intervenir au sein d’un environnement bancaire exigeant, dans le cadre de la gestion et de l’évolution d’une plateforme Data stratégique utilisée pour des besoins réglementaires. Vous serez en charge de l’administration de la plateforme SAS, de la mise en place et de l’automatisation des traitements de chargement de données via des scripts SAS et Shell, ainsi que du suivi de la qualité et de la conformité des données en base Teradata. Vous interviendrez également sur le support aux utilisateurs métiers (notamment en environnement international), l’analyse des incidents, la validation des flux de données et l’optimisation des traitements batch. Ce rôle requiert une forte expertise technique sur SAS, une bonne maîtrise des environnements Data legacy, ainsi qu’une capacité à évoluer dans un contexte structuré, orienté Data Quality, gouvernance et performance.
CDI

Offre d'emploi
Alternance - Data Engineer Cloud / IA F/H

█ █ █ █ █ █ █
Publiée le
Big Data
DevOps
Python

Rouen, Normandie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
ARCHITECTE DATA (H/F)

GROUPE ALLIANCE
Publiée le
Cloudera
MEGA
TOGAF

60k-75k €
France
ACCROCHE SI POUR TOI, CHAQUE DONNEES A SA PLACE, CETTE ANNONCE TE METTRA SUR LA BONNE VOIE ... CE QUE TU RECHERCHES : Travailler sur des architectures Data performantes et scalables Participer à des projets innovants de valorisation des données Relever des défis autour du Big Data, du Cloud et de l’IA Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur de l'assurance, tu participeras à la mise en place et à l’optimisation des architectures data pour une exploitation stratégique et innovante : Analyse des besoins métier et data, tu feras Modélisation et structuration des données, tu assureras Solutions d’ingestion et d’exploitation, tu concevras Bonnes pratiques Data, tu instaureras Veille sur les innovations Data, tu réaliseras Les équipes, tu accompagneras Aux instances de pilotage, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Expérience de 10 ans minimum dans l’architecture Data Expert(e) des plateformes de Modèle Logique de Données Habile avec les outils : et méthologies TOGAF, UML & Merise, Scrum, Safe AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Rigoureux(se) : chaque donnée doit être bien placée Curieux(se) : tu suis les tendances Data et IA Visionnaire : tu anticipes les besoins Data des entreprises Pédagogue : tu sais expliquer la valeur des données Organisé(e) : tu aimes structurer et optimiser Communicant(e) : tu fais le lien entre métier et technique
CDI

Offre d'emploi
Analyste Développeur Data / BI H/F

ITEA
Publiée le
Microsoft Power BI

40k-50k €
Saverne, Grand Est
Les missions : Vos missions s’articulent autour de quatre axes majeurs : 1. Architecture et modélisation des données Concevoir, structurer et faire évoluer l’architecture data (modèles dimensionnels, entrepôts de données, data marts). Définir et garantir les standards de qualité, de sécurité et de gouvernance des données. 2. Intégration et gestion des flux de données (ETL) Développer, maintenir et optimiser les flux d’intégration de données avec SSIS et Talend. Assurer la collecte, la transformation et la consolidation des données issues de sources variées (ERP SAP, fichiers plats, API, etc.). 3. Business Intelligence et reporting Concevoir, développer et optimiser des rapports et tableaux de bord sous Power BI à destination des équipes métiers et de la direction. Recueillir et analyser les besoins des utilisateurs afin de proposer des solutions adaptées. Accompagner les utilisateurs dans la prise en main des outils décisionnels. 4. Support, accompagnement et amélioration continue Assurer le support technique et la maintenance des solutions BI existantes. Former les utilisateurs à l’utilisation et à la création de rapports. Participer à la veille technologique et être force de proposition dans l’amélioration continue des outils et des processus.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

6426 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous