L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 385 résultats.
Offre d'emploi
Data Engineer Databricks - Paris
Publiée le
AWS Cloud
Azure
Databricks
50k-60k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Product Lead Data / Directeur projet (Montpellier)
Publiée le
Data governance
Product management
12 mois
600 €
Montpellier, Occitanie
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Product Lead Data / Directeur projet" pour un client dans le secteur des services Description 🎯 Contexte de la mission La Direction Data renforce ses équipes dans le cadre de la montée en puissance du domaine Data, Analytics & AI . Afin de garantir la qualité, la cohérence et la performance des livrables Data à l’échelle du groupe, le client recherche un Product Lead / Directeur de projet expérimenté . Placé directement sous la responsabilité du Responsable de Domaine , le Product Lead jouera un rôle clé dans la gouvernance, la stratégie et le delivery des Data Products , tout en assurant la tenue des engagements métiers et techniques. ⚙️ Rôle et responsabilités En tant que Product Lead, vous serez le garant du delivery, de la performance technique et de la qualité des composants de la ligne de produit Data, Analytics & AI. Vos principales missions : Piloter la ligne de produit Data, Analytics & AI sur les volets fonctionnels, techniques et stratégiques. Collaborer étroitement avec les Delivery Owners , Directeurs de programme et le Responsable de ligne de produit pour garantir la cohérence globale et la qualité des solutions. Contribuer à la stratégie de la ligne produit : dimensionnement des équipes, choix technologiques, modèle de coûts, sourcing et plan de delivery. Superviser la production et la maintenance des produits Data (disponibilité, performance, fiabilité). Assurer le suivi opérationnel : calendrier des évolutions, publications, roadmap technique et fonctionnelle. Définir et appliquer la politique d’industrialisation et de maintenance de la ligne de produit (qualité, CI/CD, automatisation). Accompagner et soutenir les Feature Teams dans la montée en compétence et la réalisation des objectifs. Collaborer avec les équipes agiles pour suivre les charges, les alertes et le staffing. Maintenir la documentation technique et fonctionnelle (Wiki, SharePoint, Teams). Contribuer à la pérennité technologique du patrimoine Data en réduisant la dette technique et en garantissant la conformité DSI. Assurer la coordination avec la DEXO (gestion de crise, gestion de la proximité avec les partenaires).
Mission freelance
Junior Data Analyst – Power BI
Publiée le
DAX
Microsoft Power BI
Modélisation
3 ans
250 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
‼️ Junior Data Analyst – Power BI ‼️ FREELANCE / PORTAGE SALARIAL - Longue mission 🔍 Nous recherchons un(e) jeune Data Analyst Power BI motivé(e) et prêt(e) à se lancer sur une mission opérationnelle très concrète : migration de dashboards Power BI existants. 📅 Démarrage ASAP 📍 Lyon 🎯 Mission : ✅ Migrer des rapports Power BI hébergés sur Power BI Server on-premise ✅ Revoir le modèle de données si nécessaire ✅ Garantir la cohérence visuelle & fonctionnelle des rapports Possibilité d'intégrer le client en CDI au bout d'un an de prestation
Offre d'emploi
Data Analyste
Publiée le
Réseaux sociaux
Technologies de l'information et de la communication (TIC)
1 an
40k-45k €
310-420 €
Île-de-France, France
Télétravail partiel
Prestation de Data Analyse pour la Direction de la Communication DigitaleInformations Générales Contexte de la Mission Pilotage de la réputation sur les réseaux sociaux et le web pour la Direction de la communication digitale : veille continue, analyses quantitatives/qualitatives, alertes et recommandations aux directions concernées. Activités Attendues Veille social listening en continu (sujets, tendances, crises) et suivi temps réel d'émissions en direct (soirées). Notes d'analyse rapides (quotidiennes, mensuelles, thématiques, ad hoc). Études réputationnelles liées à des opérations de marketing d'influence. Recommandations stratégiques & éditoriales pour la Direction de la com' digitale et les autres directions.
Offre d'emploi
Data Scientist – Expert
Publiée le
Deep Learning
Domino
Framework
6 mois
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Au sein de la Tribe Artificial Intelligence , vous participez au développement d’applications d’IA générative et prédictive. Vos responsabilités : Développer des applications IA (assistants virtuels, outils internes, automatisation). Concevoir des modèles IA robustes et mesurables (qualité, précision, garde-fous). Déployer des modèles en production. Communiquer les résultats aux dirigeants.
Mission freelance
Ingénieur DevOps / Cloud Azure - Data & Plateforme Offline
Publiée le
Azure DevOps
Git
Helm
1 mois
400-550 €
Paris, France
Bonjour à tous, Je recherche pour le compte d'un de mes clients plusieurs DevOps. Voici les missions : Contribution fonctionnelle & technique Intégrer de nouvelles fonctionnalités issues de composants open-source et assurer la maintenance des fonctionnalités existantes. Collaborer quotidiennement avec les Data Engineers (échanges sur les cas d’usage, tests, besoins utilisateurs finaux). Infrastructure & automatisation Automatiser le déploiement d’infrastructures Cloud à grande échelle sous Azure , en particulier la gestion de clusters Azure au niveau ressource. Travailler dans une infrastructure 100% Terraform (≈45%) : définition, maintenance et optimisation des modules et stacks IaC. Utiliser Terragrunt pour organiser et orchestrer les déploiements multi-environnements. Automatiser et industrialiser le déploiement d’images Docker et de composants applicatifs au sein de clusters Kubernetes. Concevoir, maintenir et optimiser des charts Helm (≈30%) pour les différents services déployés. Maintenir et développer des scripts et utilitaires en bash (≈20%) et ponctuellement en Python (≈5%). Plateforme Data & environnement offline Déployer et intégrer des composants transverses : Ingress, Keycloak, Nexus… Automatiser et opérer les briques techniques liées aux traitements de données : GitLab, Jupyter/JupyterHub (notamment en environnement offline), Spark, PostgreSQL… Travailler dans des environnements sans accès internet , incluant la gestion interne des identités, l’intégration réseau, et la gestion complète du cycle de vie applicatif. CI/CD & qualité Utiliser la suite Azure DevOps (repos, boards, pipelines). Exécuter et superviser des pipelines CI/CD de tests et de déploiements déjà implémentés. Participer activement aux pratiques DevOps : revue de code, bonnes pratiques Git, amélioration continue des workflows. Architecture & sécurité Contribuer à l’évolution de l’architecture de la plateforme en apportant votre expertise Cloud, Kubernetes ou systèmes distribués. Assurer une veille active sur les sujets technologiques et de sécurité. Appliquer et promouvoir les bonnes pratiques en matière de sécurité des données et de la plateforme. Actualiser et structurer la documentation technique.
Offre d'emploi
PO DATA - DECISIONNEL
Publiée le
Data management
Dataiku
ETL (Extract-transform-load)
3 ans
40k-70k €
400-600 €
Nanterre, Île-de-France
La prestation consiste à mener au sein de la MOA, des projets décisionnels depuis le recueil des besoins auprès des différents clients internes, jusqu’à la mise en production et l’accompagnement utilisateur. Le PO Décisionnel sera responsable de la qualité et la cohérence des livrables, en assurant une modélisation et l'architecture des données. Les principales missions : Recueillir et analyser les besoins métiers, définir la solution adaptée et estimer la charge du projet. Proposer l’architecture fonctionnelle par une modélisation des données garantissant la cohérence des flux d’informations et la qualité des données utilisées Piloter la mise en place des outils Qlik Sens Gérer la roadmap du projet et définir les priorités en collaboration avec le PM Rédiger les US et gérer le backlog en mode Agile pour garantir une bonne communication avec les équipes techniques. Validation du résultat et en production et assurer le support fonctionnel aux utilisateurs après déploiement. Communiquer l’avancement du projet auprès des différentes parties prenantes et garantir une bonne gestion des instances projets. Effectuer le reporting auprès de la MOA Collectives pour assurer un suivi régulier des projets
Offre d'emploi
Directeur des systèmes d'informations H/F
Publiée le
70k-90k €
Paris, France
Télétravail partiel
Véritable chef d'orchestre de la stratégie numérique, vous aurez pour mission d'industrialiser les process métiers, d'intégrer l'intelligence artificielle, d'assurer la cybersécurité, de développer des outils internes et d'accompagner leurs équipes vers de nouveaux usages digitaux. Ce poste n'est pas seulement stratégique : il est opérationnel et concret. Vous devrez être capable de rédiger des procédures claires, de proposer et mettre en place des solutions digitales, de piloter le développement d'outils internes (low code / no code), et de manager une petite équipe technique (ingénieurs IA en alternance, spécialistes IT, data, gestionnaire applicatif). Vous devrez également assurer la coordination avec leur prestataire externalisé, responsable de l'infrastructure et du matériel. - Conception et structuration des process métiers - Automatisation, développement d'outils et intelligence artificielle - Digitalisation et innovation - Cybersécurité et conformité - Coordination avec le service IT externalisé - Management et pilotage de l'innovation
Mission freelance
architecte data senior API Lyon/3 jours TT
Publiée le
API REST
Architecture
6 mois
520-700 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
architecte data senior API Lyon . Compétences attendues : Architecture technique : compréhension des infrastructures, intégration, scalabilité Maitrise des briques techniques, APIs, frameworks et librairies Maîtrise des démarches de design Solution technique (concept, ateliers, livrables Traduction des exigences fonctionnelles et non fonctionnelles en spécifications techniques. Connaissance des standards d’intégration (REST, GraphQL, ESB, etc.). Communication et vulgarisation : capacité à expliquer des concepts complexes au sein d’une équipe pluridisciplinaire Collaboration interdisciplinaire : capacité à travailler étroitement avec différentes parties prenantes (métiers et IT) Méthodologies agiles Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Séniorité : Minimum 7 ans d’expérience Missions : Contributions à la découverte du périmètre fonctionnel (Collaborer avec l’équipe produit pour aligner l’architecture sur les objectifs métier, clarifier les exigences, définir les personas et scénarios d’usage afin de répondre aux besoins des utilisateurs finaux.) Design de solution technique (Définir les exigences non fonctionnelles et critères de succès techniques, tout en analysant les intégrations et dépendances avec les systèmes et infrastructures existants.) Contribuer à l’amélioration du design de solution Compétences attendues : Architecture technique : compréhension des infrastructures, intégration, scalabilité Maitrise des briques techniques, APIs, frameworks et librairies Maîtrise des démarches de design Solution technique (concept, ateliers, livrables Traduction des exigences fonctionnelles et non fonctionnelles en spécifications techniques. Connaissance des standards d’intégration (REST, GraphQL, ESB, etc.). Communication et vulgarisation : capacité à expliquer des concepts complexes au sein d’une équipe pluridisciplinaire Collaboration interdisciplinaire : capacité à travailler étroitement avec différentes parties prenantes (métiers et IT) Méthodologies agiles
Offre d'emploi
Data Engineer (H/F)
Publiée le
Big Data
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
480-580 €
Paris, France
Télétravail partiel
La Direction Technique du Numérique pilote des projets transverses en collaboration avec la Direction Data, dont la mission est de faire de la donnée un levier de performance et d’aide à la décision. L’équipe Gold Pilotage , composée d’un Product Owner et de deux Data Ingénieurs, développe et maintient la solution Data4All , un produit destiné à la centralisation et à la diffusion des données analytiques via des dashboards et des reportings internes. Objectifs de la mission Le Data Ingénieur interviendra sur : La conception, la mise en production et la maintenance de pipelines data robustes et scalables. Le développement de modèles de données et l’organisation du stockage. La qualité, la fiabilité et la gouvernance des données. La mise en place et la maintenance des workflows CI/CD. L’industrialisation des traitements via des infrastructures scalables et sécurisées. Le partage de bonnes pratiques et la mise à jour continue de la documentation.
Mission freelance
Consultant Data Migration – SAS / SQL – Contexte Épargne & Transformation SI
Publiée le
SAS
SQL
2 ans
400-580 €
Île-de-France, France
Télétravail partiel
Description de la mission : Dans le cadre d’un programme de transformation du système d’information épargne , nous recherchons un consultant confirmé spécialisé en migration de données pour intervenir sur la construction et l’industrialisation d’un modèle de données pivot entre les systèmes existants et un nouvel outil de gestion. Vos missions : Analyser les traitements et modèles de données existants sous SAS Enterprise Concevoir et faire évoluer le modèle de données Pivot servant d’interface entre les systèmes source et cible Développer et industrialiser les flux SAS (pré-traitement, transformation, injection) Réaliser les tests unitaires et suivre les anomalies Participer au passage de run de migration et assurer le suivi des compteurs Rédiger la documentation technique et les spécifications fonctionnelles détaillées
Offre d'emploi
Data Engineer Senior
Publiée le
Apache Kafka
Apache Spark
Hadoop
Paris, France
Télétravail partiel
En tant qu’Ingénieur Data Senior, vous jouerez un rôle clé dans la conception, le développement et l’optimisation de solutions data innovantes pour le secteur bancaire. Vous serez un membre essentiel de l’équipe Data Engineering et collaborerez avec des experts métiers, data scientists et développeurs pour transformer les plateformes digitales de nos clients. Vos missions principales Concevoir, développer et maintenir des solutions big data robustes et évolutives avec Hadoop, Spark, Kafka… Mettre en œuvre des pipelines de données temps réel et batch pour des cas d’usage complexes Garantir la qualité, la sécurité et la conformité des données à chaque étape du cycle de vie Intégrer des solutions de streaming avec Kafka pour des analyses quasi temps réel Développer et maintenir des microservices en Node.js Encadrer les ingénieurs juniors et promouvoir les bonnes pratiques
Mission freelance
Data Scientist - Expertise OpenMetaData
Publiée le
API
Collibra
DataGalaxy
2 mois
520 €
France
Télétravail 100%
Profil : architecte ayant des connaissances sur l'implémentation de l'outil et son utilisation Attendus : Apporter un retour d’expérience concret (REX) sur la mise en oeuvre d’ OpenMetadata dans un contexte comparable. Challenger la position d’ OpenMetadata au sein de la data stack cible imaginée, en interaction avec les autres briques de la plateforme : ingestion, stockage, Transformation, visualisation, sécurité et gouvernance. Former les équipes socle sur : L’architecture fonctionnelle et technique d’OpenMetadata Les principaux cas d’usage (catalogue, lineage, quality, policy, tagging, etc.) Les modalités d’intégration (connecteurs, API, ingestion metadata). Orienter la stratégie de gouvernance en précisant Le positionnement d’OpenMetadata dans un écosystème comprenant un data catalog fonctionnel déjà existant (Zeenea) Les complémentarités et limites avec d’autres outils du marché (ex. Collibra, Atlan, DataGalaxy, etc.) Explorer plus particulièrement 2 sujets clés : Open Lineage : Intégration, couverture, limites, exploitation pour le suivi de la chaîne de valeur des données. Habilitations & Taggage : Fonctionnement natif d’OpenMetadata, articulation possible avec Apache Ranger et/ou Apache Atlas, gestion des rôles, politiques et classification des données.
Mission freelance
[LFR] Expertise BigData / Cloud Data Engineering, Senior à Guyancourt - STAND - BY - 1005
Publiée le
10 mois
400-750 €
Guyancourt, Île-de-France
Télétravail partiel
Une grande organisation internationale du secteur bancaire est responsable de la production informatique à l’échelle mondiale. L’équipe DATA/IA conçoit, opère et porte l’expertise des plateformes DATA facilitant la mise en place d’architectures modernes, distribuées et hautement résilientes, tant sur site que dans le cloud. Le Data Engineering/ Expertise Big Data rejoindra l’équipe DATA/IA, actuellement composée d’une vingtaine de personnes réparties entre Paris et Singapour, et évoluera dans un environnement technique et fonctionnel riche. Les principales missions sont: Accompagner les projets dans leur migration vers des infrastructures modernes on prem et sur le cloud public : • Intervenir en assistance/expertises auprès de nos clients, obtenir leurs retours et comprendre leurs exigences • Réaliser l'étude détaillée des besoins clients en lien avec les architectes • Construire avec les CloudOps les infrastructures DATA pour le projet • Accompagnement des projets dans l'adoption de ces technologies via des workshops, formation, documentation • Paramétrer / configurer les services afin de répondre aux exigences projets • Définir la stratégies de backup et restauration • Réaliser les tests de performances, de résilience et de reprise d'activité • Implémenter le monitoring et l'alerting • Rédiger les documents d'exploitation Participer au RUN de nos services : • Gestion des demandes et incidents • Patching / Upgrade • Participation à l'astreinte de l'équipe • Amélioration continue de nos procédures/documentation Compétences recherchées : • Connaissance approfondie sur les technologies Data suivantes: Cloudera, Kafka, Spark, Flink, Nifi, AirFlow, Starburst/trino • Connaissance des Cloud Public AWS et GCP et Terraform • Connaissance des solutions Data sur le Cloud Public : AWS EMR, MSK, GCP DataProc, BigQuery, Cloud Storage, Cloud Dataflow, etc. • Connaissance approfondie linux et kubernetes • Connaissance approfondie des solutions CI/CD (Gitlab, GitOps, ArgoCD, etc) • Maîtrise de langages de programmation (Scala, Java, Python…) • Travail en Agile • Anglais • Certification ITIL V4 obligatoire 3J/Semaine sur site SQY au minimum Les astreintes (HNO, etc…) : Oui La possibilité de renouvellement : Oui Type de projet (support / maintenance / implementation /…) : Implémentation
Offre d'emploi
Consultant Recette fonctionnelle (H/F)
Publiée le
IBM Maximo
JIRA
JSON
10 jours
Saint-Denis, Île-de-France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Pour le compte de l’un de nos clients grands compte du secteur transport, nous sommes à la recherche d’un Consultant Recette fonctionnelle (H/F) Client : Secteur Transport Poste : Appui Recette fonctionnelle Expérience : Min 4 ans ou Min 7 ans Localisation : Saint-Denis
Offre d'emploi
Data Engineer (21)
Publiée le
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
400-660 €
Île-de-France, France
Télétravail partiel
Descriptif du poste La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Au sein de l'équipe Bronze, la prestation se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d'un product owner, d'un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l'orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l'infrastructure. Prestations attendues Prestation de cette équipe Collecter et centraliser les différentes sources de données non homogènes Assurer la conformité et la sécurité des données Participer aux initiatives de gouvernance des données Prestation en data engineering En interaction avec les membres de l'équipe, la prestation consiste à : Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe Construire et maintenir de pipelines data robustes et scalables Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l'évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances de data engineering Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
5385 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois