Trouvez votre prochaine offre d’emploi ou de mission freelance Dash

Votre recherche renvoie 1 235 résultats.
CDI

Offre d'emploi
Chef de projet informatique - Data Analyse F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Spark
DevOps
Git

Saint-Nazaire, Pays de la Loire

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Data Engineer senior

Atlanse
Publiée le
Agile Scrum
AWS Cloud
AWS Glue

1 an
60k-67k €
500-600 €
Paris, France
En tant que Data Engineer Senior PySpark, vous jouez un rôle clé dans la performance et la fiabilité des traitements de données à grande échelle. Vous êtes en charge de l’optimisation des pipelines existants et de l’organisation des activités de RUN & stabilisation, en veillant à prioriser les actions à forte valeur ajoutée dans un environnement Agile. Votre rôle Optimisation et refonte des pipelines data · Auditer, refactorer et faire évoluer les modules de data engineering : Refining Covariates Modelling, Exposition · Optimiser les pipelines PySpark pour améliorer les performances de traitement à grande échelle (partitioning, gestion des joins, cache, skew et volumétrie) · Renforcer la modularité, la lisibilité, l’évolutivité et la scalabilité des pipelines · Contribuer à la réduction de la dette technique et à la modernisation du legacy Industrialisation et qualité des développements · Structurer un framework flexible permettant l'ajout de nouvelles features et facilitant l’industrialisation des développements · Mettre en place les tests unitaires, d’intégration et fonctionnels · Formaliser des standards de développement Stabilisation, RUN et amélioration continue · Améliorer la stabilité des pipelines grâce au monitoring et à l’application des bonnes pratiques CI/CD · Structurer et prioriser les actions de RUN et de stabilisation · Définir et piloter un plan d'optimisation priorisé avec des gains mesurables Passage à l’échelle et évolution de l’architecture data · Adapter les pipelines pour un déploiement mondial / multi régions en tenant compte des enjeux de volumétrie et de passage à l’échelle · Optimiser le ratio coût / performance des traitements · Travailler en étroite collaboration avec les Data Scientists et les ML Engineers
CDI
Freelance

Offre d'emploi
Scrum Master - F/H

AIS
Publiée le
Scrum

1 mois
40k-50k €
250-500 €
Nantes, Pays de la Loire
🎯 MISSIONS : Intégré(e) aux équipes d'un de nos clients grand compte, vos missions seront les suivantes : - Accompagner les équipes dans l'application du cadre Scrum/Kanban au quotidien - Faciliter les évènements d'équipe (planning, synchi daily, review, rétrospective) - Aider les équipes à identifier et lever leurs irritants opérationnels - Mettre en oeuvre des démarches d'amélioration continue basées sur l'observation terrain - Encourager l'auto organisation et la responsabilisation collective - Faciliter les échanges entre équipes et parties prenantes - Accompagner les Product Owners sur la gestion du backlog et la priorisation - Sensibiliser les managers et parties prenantes aux principes agiles - Contribuer à l'alignement entre les équipes et les objectifs de la direction - Participer aux évènements de niveau train (PI Planning, ART sync, System Demo, Inspect & Adapt) - Favoriser la transparence, la synchronisation et la collaboration inter équipes
Freelance
CDI

Offre d'emploi
Chef de projet Infra DATA CENTER

AGH CONSULTING
Publiée le
Gestion de projet
Telecom

6 mois
Clamart, Île-de-France
Le chef de projet aura un rôle d’AMO. Il pilotera des projets depuis l’établissement de l’expression de besoin jusqu’au transfert des installations vers l’exploitation et sera en contact avec l’ensemble des acteurs du projets (fournisseurs, prestataires, maitrises d’œuvres de conception et d’exécution, Responsables d’exploitations, CSPS, Bureau de contrôle, etc…). Il animera et suivra également des sujets transverses nécessaires à la bonne organisation de l’activité VDR Data Center. Valider ou challenger les expressions de besoins émises par le client. Suivre et piloter les maitrises d’œuvre de conception et d’exécution. Analyser, challenger et valider les documents de conceptions avec arbitrage niveau 1 des solutions techniques Être garant des délais, des coûts, de la qualité pendant la durée globale des projets Analyser, négocier et valider les devis MMO et travaux Suivre le bon déroulement des travaux via la MOE. Garantir le respect des process et règles d’intervention de notre entreprise (Gestion des GCR, Demandes d’accès, PAQ, permis feu, ITST, etc…) Piloter la gestion contractuelle des partenaires référencés Participer aux réceptions des travaux avec le MOE, signature des PV, suivi des documents de réception, fiche de transfert, levée des réserves y compris DOE Réaliser l’interface avec les intervenants tiers (mainteneur, hébergement, sécurité, etc…) Parti per aux réunions de chantier avec les MMO (suivant le type de projet) Réaliser un reporting récurrent Piloter ou assister à sujets transverses à l’activité en collaboration avec l’équipe et si besoin les supports transverses. Garantir de la continuité de service des sites en exploitation et de la sécurité des intervenants.
CDI

Offre d'emploi
Ingénieur Devops Senior AZURE F/H

ASTRELYA
Publiée le
Ansible
Azure DevOps
Azure Kubernetes Service (AKS)

75008, Paris, Île-de-France
Astrelya est un cabinet de conseil franco‑suisse en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Composé de 300 experts passionnés, le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, du cadrage à la mise en production, avec une expertise reconnue en Data/IA, Cloud, DevOps et méthodes agiles. Notre modèle repose sur la proximité, la confiance et une culture humaine forte, où les collaborateurs sont au cœur de la création de valeur. Votre mission En tant qu’Ingénieur(e) DevOps Senior spécialisé(e) Azure, vous jouerez un rôle clé dans la conception, l’industrialisation et l’optimisation des plateformes Cloud de nos clients. Vous interviendrez sur des projets à forte valeur ajoutée, au cœur des enjeux de modernisation, d’automatisation et de fiabilisation des environnements de production. Concrètement, vous allez : · Concevoir, déployer et maintenir des architectures Cloud Azure robustes, scalables et sécurisées. · Mettre en place et optimiser des pipelines CI/CD (GitLab, GitHub Actions, Azure DevOps…). · Automatiser l’infrastructure via IaC (Terraform, Bicep, Ansible). · Industrialiser les environnements conteneurisés (Docker, Kubernetes / AKS). · Implémenter les bonnes pratiques DevSecOps (sécurité, conformité, scanning, secrets management). · Superviser et améliorer la performance, la résilience et la disponibilité des plateformes. · Accompagner les équipes de développement dans l’adoption des bonnes pratiques Cloud & DevOps. · Participer à la définition des standards d’ingénierie et à la diffusion de la culture Craft & SRE. Votre futur environnement technique · Cloud : Azure (AKS, App Services, Functions, Storage, Key Vault, APIM, Monitor…) · CI/CD : GitLab CI, GitHub Actions, Azure DevOps, Jenkins · Conteneurs : Docker, Kubernetes, Helm · Infrastructure as Code : Terraform, Ansible, Bicep · Sécurité : DevSecOps, scanning, Azure Defender, secrets management · Observabilité : Prometheus, Grafana, Azure Monitor, ELK · Automatisation & scripting : PowerShell, Bash, Python
CDI

Offre d'emploi
Data Product Owner F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
JIRA
Scrum
SQL

Puteaux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Chef de projet Data F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Python
SQL

La Garde, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Data Engineer Apache NiFi/SQL/JSON/XML/API

OBJECTWARE
Publiée le
Apache NiFi
API
JSON

3 ans
40k-68k €
400-550 €
Île-de-France, France
Objectif de la mission Dans le cadre du déploiement d’une plateforme Data destinée à centraliser, fiabiliser et gouverner l’ensemble des données des domaines banque et assurance, vous intégrez la squad Data Flux. Cette équipe, composée de trois développeurs Data, d’un architecte technique, d’un Business Analyst et d’un Product Owner, est responsable des missions suivantes : la conception et l’implémentation des flux de données, l’intégration et la transformation de données provenant de sources multiples, la sécurisation et l’industrialisation des flux, en conformité avec les standards attendus en matière de qualité et de traçabilité. Une expérience dans les secteurs de l’assurance, de la banque ou de la finance est vivement recommandée, notamment sur des développements de flux conformes à la norme Penelop, ainsi que sur des flux de données liés aux domaines assurantiels ou aux données clients. - Conception et développement de pipelines de données : Concevoir des flux robustes et évolutifs pour l’ingestion, la transformation et la diffusion des données dans le cadre du modèle Bronze / Silver / Gold. - Développement et intégration sur Apache NiFi : Implémenter et paramétrer des workflows NiFi pour collecter et normaliser les données issues de différentes sources (fichiers XML/CSV, API REST). - Transformation et modélisation des données : Participer à la modélisation du socle de données structurées et au développement des transformations afin de constituer les vues consolidées du MDM. - Contrôles de qualité et traçabilité : Mettre en place des mécanismes d’audit, de logs et de contrôle (complétude, unicité, cohérence, versioning des données). - Optimisation et performance : Surveiller les performances des pipelines, identifier les goulots d’étranglement et proposer des améliorations continues. - Sécurité et conformité : Veiller à la sécurité des données (authentification, chiffrement, gestion des accès) dans le cadre des standards du groupe. - Documentation et partage de connaissances : Documenter les processus, les schémas et les bonnes pratiques afin d’assurer la maintenabilité et la transmission des savoirs au sein de la squad. PREREQUIS TECHNIQUES : - Maîtrise d’Apache NiFi (ingestion, orchestration, monitoring) - Solides connaissances en SQL et modélisation de données relationnelles (PostgreSQL) - Connaissance des modèles de stockage objet (S3, Blob) - Connaissance des formats et protocoles : JSON, XML, CSV, REST API - Compétences en scripting (Python, Bash) appréciées - Sensibilité aux enjeux de qualité, sécurité et gouvernance des données Compétences Techniques : SQL, Python, Bash, Gitlab
CDI

Offre d'emploi
Alternant(e) - Chargé(e) de Projet Market Data (H/F)

█ █ █ █ █ █ █
Publiée le
Python

Lestrem, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Engineer Semarchy (H/F)

CELAD
Publiée le

36k-42k €
Nantes, Pays de la Loire
CDI - 2 jours de télétravail / semaine - Nantes - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) ingénieur décisionnel ETL pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Rejoignez une équipe Data au cœur de la connaissance client et des activités commerciales d’un grand groupe bancaire. Vos principales missions : Vous jouerez un rôle clé dans la construction et la performance des pipelines de données : Conception & Développement - Concevoir, développer et maintenir des flux ETL robustes et industrialisés sous Stambia / Semarchy - Modéliser et structurer les données selon les besoins métiers et techniques - Développer des jobs d’intégration, de transformation et de restitution Qualité & Performance - Optimiser les traitements pour garantir la performance , la scalabilité et la fiabilité des pipelines - Mettre en place des contrôles qualité, règles de validation et mécanismes d’alerting - Participer à l’amélioration continue des bonnes pratiques Data Analyse & Collaboration - Analyser les besoins fonctionnels et proposer des solutions techniques adaptées - Collaborer avec les équipes BI, Data, IT et les référents métiers - Documenter les flux et leur cycle de vie pour garantir la pérennité des traitements ⚙ Stack technique du projet : - ETL : Stambia / Semarchy ( xDM / xDI) - SQL
Freelance

Mission freelance
Data Engineer Semarchy (H/F)

CELAD
Publiée le

1 an
370-400 €
Nantes, Pays de la Loire
CDI / Portage / Freelance - 2 jours de télétravail / semaine - Nantes - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) ingénieur décisionnel ETL pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Rejoignez une équipe Data au cœur de la connaissance client et des activités commerciales d’un grand groupe bancaire. Vos principales missions : Vous jouerez un rôle clé dans la construction et la performance des pipelines de données : Conception & Développement - Concevoir, développer et maintenir des flux ETL robustes et industrialisés sous Stambia / Semarchy - Modéliser et structurer les données selon les besoins métiers et techniques - Développer des jobs d’intégration, de transformation et de restitution Qualité & Performance - Optimiser les traitements pour garantir la performance , la scalabilité et la fiabilité des pipelines - Mettre en place des contrôles qualité, règles de validation et mécanismes d’alerting - Participer à l’amélioration continue des bonnes pratiques Data Analyse & Collaboration - Analyser les besoins fonctionnels et proposer des solutions techniques adaptées - Collaborer avec les équipes BI, Data, IT et les référents métiers - Documenter les flux et leur cycle de vie pour garantir la pérennité des traitements ⚙ Stack technique du projet : - ETL : Stambia / Semarchy ( xDM / xDI) - SQL
CDI

Offre d'emploi
Vice-président Conseil Expert Data / IA

Signe +
Publiée le

85k-100k €
Paris, France
Dans le cadre de la croissance des activités autour de la Data et de l'Intelligence Artificielle, nous recherchons un(e) Vice-Président Conseil Expert Data / IA afin d'accompagner les clients dans leurs enjeux de transformation et de performance. À ce poste stratégique, vous jouez un rôle clé dans le développement de la proposition de valeur Data / IA ainsi que dans le rayonnement de l'expertise. Vos principales responsabilités : • Contribuer au développement commercial en apportant votre expertise Data / IA aux équipes de vente • Garantir un haut niveau de satisfaction client et la qualité des prestations délivrées • Promouvoir l'expertise Data / IA auprès des clients, du marché et des partenaires • Animer une communauté d'experts (structuration d'offres, partage de connaissances, diffusion de bonnes pratiques) • Accompagner les consultants en mission et contribuer à leur montée en compétences • Participer à la définition des offres et à leur mise en œuvre opérationnelle Vous intervenez auprès de clients grands comptes et ETI, notamment dans les secteurs Retail, Luxe et Industrie, sur des programmes de transformation stratégique et d'amélioration continue. Référence de l'offre : 5xfrj8op47
CDI
Freelance

Offre d'emploi
Scrum Master Editique

Le Groupe SYD
Publiée le

12 mois
35k-50k €
350-550 €
Niort, Nouvelle-Aquitaine
🌟 Quel sera ton poste ? 🌟 Tu rejoins une équipe dynamique et engagée au sein d’un projet ambitieux autour de l’ editique , en accompagnant une démarche d’amélioration continue et d’agilité. Dans un contexte où les processus de production documentaire sont critiques pour les métiers, tu auras pour mission principale d’accompagner et de faciliter la mise en œuvre des bonnes pratiques Scrum au sein d’une équipe pluridisciplinaire. Tes missions principales : Faciliter l’adoption des méthodes agiles : Animer les cérémonies Scrum (Daily, Sprint Planning, Review, Rétrospective) et accompagner l’équipe dans l’amélioration continue de ses processus. Optimiser la collaboration : Servir de pont entre les équipes techniques, métiers et les parties prenantes pour garantir une vision claire des objectifs et des livrables. Identifier et lever les blocages : Analyser les freins à la performance et proposer des solutions pour fluidifier les flux de travail et renforcer l’efficacité collective. Garantir la qualité des livrables : Participer à la définition des critères d’acceptation et veiller à leur respect tout au long du cycle de développement. Sensibiliser aux enjeux de sécurité et de conformité : Intégrer les bonnes pratiques liées à la gestion des données et aux sauvegardes dans les processus editiques, en collaboration avec les équipes IT. Piloter l’amélioration continue : Recueillir les feedbacks, analyser les métriques (vélocité, taux de bugs, etc.) et proposer des axes d’amélioration pour maximiser la valeur livrée. Ton impact : En tant que Scrum Master Editique , tu contribueras directement à la transformation des méthodes de travail, à l’optimisation des flux documentaires et à la sécurisation des processus. Ton rôle sera clé pour garantir que les solutions livrées répondent aux besoins métiers tout en respectant les contraintes techniques et réglementaires.
CDI

Offre d'emploi
Data scientist F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Ocaml

Pau, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
101058/Data Scientist Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT)

WorldWide People
Publiée le
Data science

9 mois
400-450 €
Nantes, Pays de la Loire
Data Scientist IA GEN, Python, Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT) - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Notre client attend de la candidature que vous proposerez : - qu'elle soit autonome sur l'IA Gen (prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails) - qu'elle dispose d'une expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur) Enfin qu'elle ait : - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch
Freelance
CDI

Offre d'emploi
Expert Stockage NAS MCC NetApp

VISIAN
Publiée le
NAS
Stockage

1 an
Île-de-France, France
Contexte Le domaine assure le delivery stockage de la production mutualisée d'une grande institution bancaire. Missions Spécialiste du stockage dans le monde des systèmes « Open » Garant des solutions techniques et de l’optimisation du dispositif de production Pilotage de l’activité d’exploitation et d’administration des infrastructures de stockage Garant des phases de setup dans le cadre des projets Optimisation et reporting de la capacité et de la performance des infrastructures Développement des relations avec les fournisseurs et les constructeurs
1235 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous