L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 405 résultats.
Offre d'emploi
Data Analyst H/F
JEMS
Publiée le
45k-55k €
Paris, France
Nous recherchons un(e) Data Analyst confirmé(e) capable d'accompagner les métiers dans l'aide à la décision. Vous aurez la charge de : • Guider et accompagner les équipes métier dans l'exploitation et la valorisation de leurs données, identifier des leviers d'optimisation et proposer des améliorations des processus business • Servir d'intermédiaire entre le métier et la DSI pour faciliter la circulation de l'information et la mise en place des solutions data • Recueillir et analyser les besoins métiers (Marketing, Retail, CRM, Supply, Finance...) et concevoir des dashboards Power BI à forte valeur ajoutée • Modéliser, préparer et fiabiliser les données (SQL, DAX, Databricks, Snowflake) et optimiser les flux pour garantir leur qualité et leur disponibilité • Mener et piloter des études analytiques, conduire des analyses permettant d'éclairer la prise de décision et d'orienter les actions métier • Contribuer à l'amélioration de la culture Data chez nos clients et renforcer la capacité des équipes à exploiter leurs données efficacement Référence de l'offre : 18agydgm9j
Offre d'emploi
Data Scientist F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Python
SQL
Mérignac, Nouvelle-Aquitaine
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Consultant Lead Tech Expert Data IA
ALLEGIS GROUP
Publiée le
Big Data
IA
IA Générative
1 an
Paris, France
Dans le cadre de projets IA à forte valeur ajoutée, notre client recherche un Consultant Lead Tech Expert Data IA pour intervenir sur des travaux de cadrage et de pilotage de projets transformants. Le consultant interviendra au sein d’un dispositif existant autour de projets IA stratégiques, avec une forte autonomie et une capacité à coordonner différents acteurs. Une expertise Data / IA orientée delivery et cadrage est attendue. Missions principales Intégrer le dispositif existant sur les projets Data & IA en cours Piloter et sécuriser les phases de cadrage, EO, MVP et démarrage des développements Apporter une expertise Lead Tech Data IA sur des projets transformants à dominante Marketing Contribuer à l’alignement stratégique et technique des solutions IA proposées Coordonner les différents acteurs internes (équipes Data, IT, métiers, partenaires) Challenger les choix technologiques et méthodologiques liés à l’IA Garantir la qualité du delivery et le respect des jalons projet Participer à la structuration des priorités et de la feuille de route IA Apporter une vision marché et bonnes pratiques Data / IA Accompagner la mise en œuvre de solutions IA performantes, sécurisées et industrialisables
Offre d'emploi
Data Engineer Databricks
KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks
45k-60k €
Paris, France
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Mission freelance
PM Data Migration GCP
Mon Consultant Indépendant
Publiée le
Data analysis
Google Cloud Platform (GCP)
12 mois
650-680 €
Paris, France
Pour le compte de l’un de nos clients, nous recherchons un Program Manager – Expert technique et fonctionnel en Data Migration Cloud (GCP) . Le consultant pilotera les migrations de données par département métier , assurera le suivi des jalons, la gestion des risques et l’ orchestration ainsi que la priorisation des tâches . Il sera également garant de la gouvernance du programme et du pilotage des parties prenantes , en supervisant l’ensemble des activités de transformation : études, réalisation, vérification et appropriation par les métiers. Le poste requiert une forte expertise Cloud GCP, une vision transverse et d’excellentes capacités de coordination.
Mission freelance
Data Scientist IA & MLOps
LeHibou
Publiée le
Data science
IA
IA Générative
12 mois
400-750 €
Croix, Hauts-de-France
Dans le cadre de la typologie IT-T – Data Scientist, les missions génériques associées incluent : - Établir des scénarios permettant de comprendre et d’anticiper de futurs leviers métiers ou opérationnels pour l’entreprise. - Réaliser tout le cycle de valorisation de la donnée : • Choix et collecte des données. • Analyse de la qualité des données et redressement. • Préparation des données. • Valorisation spécifique à la Data Science (analyse prédictive voire prescriptive, mise en place d’algorithmes d’apprentissage automatique ou profond, conception de data visualizations dynamiques, data storytelling, etc.). - Appliquer des techniques statistiques, de text mining, d’analyse comportementale, de géolocalisation, etc., pour l’extraction et l’analyse d’informations issues de gisements de données (Big Data). - Obtenir des données adéquates et trouver les sources de données pertinentes : • Recommandations sur les bases de données à consolider, modifier, rapatrier, externaliser, internaliser. • Conception de datamarts et potentiellement d’entrepôts de données (data warehouses). - Évaluer la qualité et la richesse des données : • Rassembler les données, les modéliser et en vérifier la véracité. - Analyser les résultats et les intégrer dans le système d’information cible du métier. - Traduire une problématique métier en problème mathématique/statistique et réciproquement. - Comparer et évaluer différents modèles ou méthodes de calcul, en anticipant les avantages et inconvénients dans un environnement métier donné. 2. Périmètre fonctionnel et responsabilités principales 2.1. Credit Risk Scoring - Pour les équipes Risque / Validation : • Concevoir et optimiser les scores d’octroi et de comportement en explorant des approches innovantes. • Garantir la stabilité du coût du risque en entraînant et déployant ces solutions, et en assurant le monitoring de la dérive des modèles. • Travailler en étroite collaboration avec les experts métiers et les équipes Risque. 2.2. AI Solutions (IA appliquée aux parcours clients) - Optimiser l’expérience client en intégrant les modèles d’IA en temps réel sous forme d’API dans les parcours digitaux (scoring temps réel, personnalisation des offres de paiement, etc.). - Participer à l’architecture technique pour une intégration fluide des modèles, en suivant les meilleures pratiques de développement (Cloud, MLOps). - Collaborer avec les équipes Produit et IT pour industrialiser les solutions (mise en production, supervision, conformité aux standards de l’entreprise). 2.3. GenAI (IA générative et agents) - Prototyper et déployer en production des solutions d’IA générative sous forme d’agents (LLM, RAG, etc.) pour : • Transformer les processus internes (Marketing, Audit, Risque, …). • Améliorer la relation et le support client. - Mettre en place des architectures « agentic » pour : • Automatiser l’octroi d’offres de crédit (Risque). • Automatiser des tâches complexes d’analyse documentaire. • Faciliter l’interaction avec les clients. - Évaluer, optimiser et monitorer les performances des agents (cohérence, diversité, usage de LLM as a Judge, etc.).
Offre d'emploi
DevOps ( Cloud / Kafka / APIGEE)
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Nantes, Pays de la Loire
Contexte de la mission Améliorer l'industrialisation, la sécurisation et la supervision des plateformes d'échanges : KAFKA, APIGEE, Bucket GCP, SFTP. Travailler sur la résilience d'APIGEE/KAFKA/SFTP ainsi que les sujets de migration KAFKA (Move 2Paris) et sur les sujets autour de l'IA avec APIGEE (MCP Server), autre plateforme Google Kafka. Un nouveau périmètre à intégrer dans l'équipe Scripts, code Terraform pour ci/cd, Procédures explicatives Astreintes et Intervention à prevoir Objectifs et livrables lCoud Provider Public (idéalement GCP) Scripting (Shell, Python) Terraform, Git , Argo, Kubernetes, Ansible KAFKA, APIGEE, Bucket GCP, SFTP, Cloudflare
Offre d'emploi
Product Owner Data / IA
VISIAN
Publiée le
Agile Scrum
Microsoft Power BI
Product management
1 an
Paris, France
Contexte : Pilotage de produits analytics destinés aux équipes commerciales, avec un fort enjeu de valeur métier, d’adoption et de fiabilité des données. Activités principales • Définir la vision produit analytics et construire la roadmap. • Recueillir, cadrer et challenger les besoins métiers. • Prioriser le backlog et arbitrer selon la valeur business. • Rédiger les user stories data et critères d’acceptation. • Piloter le delivery des équipes analytics / BI. • Animer les rituels agiles (refinement, planning, reviews). • Suivre l’adoption, l’usage et l’impact business des produits data. • Garantir la qualité, la cohérence et la documentation des indicateurs. • Accompagner les équipes métiers dans l’utilisation des solutions analytics.
Offre d'emploi
Responsable Data Microsoft
Eversa
Publiée le
DAX
Microsoft Analysis Services (SSAS)
Microsoft SSIS
40k-60k €
Île-de-France, France
Description du poste EVERSA recherche un(e) Consultant(e) Data Microsoft pour intervenir sur des projets de Business Intelligence et de reporting décisionnel . Vous interviendrez auprès de nos clients pour concevoir, développer et structurer des solutions BI performantes, en lien étroit avec les équipes métiers et IT. Le poste est basé à Région Parisienne , Qualifications Concevoir et développer des tableaux de bord Power BI interactifs et performants Participer à l’ intégration, la transformation et l’industrialisation des données (ETL / ELT) Modéliser les données (DWH, datamarts) dans une logique décisionnelle Intervenir sur des environnements Azure Data : Azure Synapse Analytics et Azure Data Factory Travailler en collaboration avec les équipes métiers pour comprendre les besoins et proposer des indicateurs pertinents Contribuer aux bonnes pratiques BI et à l’amélioration continue des solutions existantes
Offre d'emploi
Dev react native / Data Engineer
IT CONSULTANTS
Publiée le
Méthode Agile
6 mois
Châtillon, Île-de-France
Nous recherchons un profil hybride, combinant une expertise en développement mobile React Native et une compétence solide en Data Engineering sur Databricks/Azure. Votre mission principale portera sur la maintenance évolutive et corrective d’une application mobile développée en React Native. En fonction de la charge de travail côté front, vous pourrez également intervenir sur la partie back/data du produit afin de contribuer aux traitements et pipelines de données sur Azure/ Databricks. Vos missions Vous interviendrez au cœur d’une squad produit sur les sujets suivants : 1) Développement mobile • Assurer la maintenance évolutive et corrective d’une application mobile en React Native • Garantir une expérience utilisateur fluide, performante et conforme aux bonnes pratiques (optimisation, modularité, testabilité) • Implémenter de nouvelles fonctionnalités ainsi que les tests associés, dans une démarche clean code (sécurité, maintenabilité) 2) Data Engineering • Concevoir, développer et implémenter des solutions Big Data Analytics • Construire et industrialiser les pipelines de données (collecte, transformation, traitement) dans le Data Lake • Développer des notebooks avancés sous Databricks (langage SQL, Framework SPARK) • Rédiger la documentation technique (DAT, release notes, etc.) • Réaliser des tests unitaires et assurer la qualité des livrables • Contribuer à la maintenance évolutive et corrective des traitements • Livrer dans un environnement DevOps (CI/CD) et maîtriser les outils associés Profil recherché • Expérience confirmée en développement d’applications React Native en production (5 ans min.) • Expérience en Data Engineering sur Azure / Databricks / Spark / SQL (3 ans min.) • Maîtrise des APIs REST • Bonne connaissance de Git et première expérience en CI/CD / DevOps Soft Skills • Proactivité et force de proposition • Capacité à évoluer dans un environnement métier complexe • Forte appétence pour la qualité du code et les bonnes pratiques Stack technique • React Native : ++++ • Databricks : +++ • Spark : +++ • Azure : ++ Un test technique sera réalisé lors de l’entretien.
Mission freelance
[SCH] Lead Tech DataOps / Release & Run Data - 1294
ISUPPLIER
Publiée le
10 mois
400-454 €
Niort, Nouvelle-Aquitaine
Contexte : -Le Data Office pilote la stratégie data et l’homogénéité/performance de l’écosystème. -L’équipe Data OPS (Service Delivery Data) standardise les pratiques d’exploitation, le déploiement continu (GitLab Cloud & On-Prem) et l’industrialisation des usages Data. Mission : -Piloter l’exploitation et la stabilité/disponibilité des environnements (dev/test/prod + déploiement continu). -Assurer la gestion des versions (composants, configurations) en lien avec conception et release managers. -Mettre en place/maintenir la supervision & diagnostic (dépendances, observabilité, documentation/auto-doc). -Gérer les incidents : RCA, plans de remédiation, suivi actions. -Garantir la qualité de mise en production (tests, doc, conformité) + identification des risques. -Définir, suivre et faire appliquer les ENF (sécurité, perf, scalabilité, dispo). -Assurer la traçabilité des changements (config/versions). -Automatiser les déploiements et maintenir les pipelines CI/CD. Profil attendu : -Lead technique DataOps capable de faire le lien RUN / Release / DevOps sur un écosystème data. -Autonome sur la stabilité prod, la supervision, le diagnostic et la gestion d’incidents (RCA). -Capable de structurer la gestion de versions/configurations et la traçabilité (release/change). -Solide en CI/CD GitLab (cloud & on-prem) + industrialisation des déploiements (OpenShift). -À l’aise pour cadrer et suivre des ENF et sécuriser les mises en production. -Leadership, communication, sens du service, force de proposition.
Offre d'emploi
Pilote de la Feuille de Route Sécurité Data
CAT-AMANIA
Publiée le
Agile Scrum
12 mois
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un Pilote de la Feuille de Route Sécurité Data pour le compte de notre client, acteur majeur dans le secteur des assurances. Au sein du Data Office , vous intervenez sur une mission stratégique visant à renforcer durablement la sécurité du patrimoine data, aussi bien sur les environnements On-Premise que Cloud . Dans un contexte de transformation et de forte exigence réglementaire, vous êtes garant(e) du pilotage global de la feuille de route Sécurité Data Office 2025–2026 . Vos principales responsabilités portent sur la coordination, le pilotage et l’amélioration continue de la posture de sécurité data, avec une approche à la fois opérationnelle, structurante et proactive. À ce titre, vous assurez notamment : Le pilotage opérationnel de la feuille de route sécurité (jalons, budgets, qualité des livrables) L’animation de la gouvernance sécurité data (comités, coordination RSSI, DDSI, Data Managers) La production de reportings et tableaux de bord de suivi (KPIs sécurité, avancement des recommandations d’audit) L’identification des risques, points de blocage et la proposition de plans de remédiation Vous pilotez également les chantiers structurants issus de la roadmap, notamment : Les stratégies de sauvegarde et de résilience des données La gestion des accès et des habilitations L’application des règles de sécurité et de conformité (PSSI, RGPD) sur les domaines Data Au-delà de l’exécution, vous jouez un rôle de conseil en évaluant la pertinence de la feuille de route existante face aux nouveaux enjeux (IA générative, nouveaux usages data, data virtualisation) et en proposant des actions complémentaires. Enfin, vous contribuez à la mise en place d’un processus d’amélioration continue de la sécurité data, en sortant d’une logique purement réactive post-audit : Standardisation des pratiques “Security by Design” Sensibilisation et montée en compétence des équipes data Mise en place de dispositifs d’auto-évaluation et d’audits flasht personnel.
Mission freelance
Data Engineer Talend (habilitation requise)
Signe +
Publiée le
Talend
12 mois
400-610 €
Paris, France
Contexte Dans le cadre du développement du DataLab, le Data Office souhaite renforcer ses équipes afin d’accélérer les projets BI, Data Analytics et Data Management et soutenir les initiatives de valorisation des données métiers. Besoin consultant Talend pour T… Objectifs de la mission Concevoir et développer des pipelines de données performants et évolutifs Participer à l’industrialisation et à l’optimisation des flux data Contribuer à la qualité, la fiabilité et la valorisation des données Responsabilités principales Concevoir, développer et optimiser des flux de données sous Talend Collaborer avec les équipes métiers, Data Analysts et Data Architects pour traduire les besoins fonctionnels en solutions techniques Garantir la qualité et la performance des traitements de données Mettre en place des processus de validation, nettoyage et fiabilisation des données Participer aux revues de code et au partage de compétences avec l’équipe Data Engineering Proposer des améliorations continues des outils, méthodes et processus Compétences requises Maîtrise de Talend (développement de pipelines, intégration de données) Bonne compréhension des architectures Data et des bonnes pratiques de traitement des données Expérience en collaboration avec équipes data et métiers Sens de la qualité de données, performance et industrialisation des flux Contraintes spécifiques Mission basée à Vélizy avec déplacements ponctuels Nationalité française requise (accès site)
Offre d'emploi
Data Engineer / Développeur PostgreSQL – Full Remote
STHREE SAS pour COMPUTER FUTURES
Publiée le
PostgreSQL
6 mois
Paris, France
Nous recherchons un Data Engineer / Développeur PostgreSQL confirmé pour intervenir sur un projet stratégique au sein d’une équipe technique dynamique. Missions : Développement et optimisation de procédures stockées Rédaction et amélioration de requêtes complexes PostgreSQL Participation à la structuration et au maintien de l’architecture data Contribution aux bonnes pratiques de développement et à l’amélioration continue Ce que nous offrons : Mission 100 % télétravail Projet long terme possible Contexte technique stimulant à forte valeur ajoutée Intégration au sein d’une équipe experte
Offre d'emploi
Scrum Master Confirmé
KEONI CONSULTING
Publiée le
BI
Big Data
Scrum
18 mois
20k-40k €
Paris, France
Contexte : Experience : 5 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Scrum Master Spécialités technologiques : BI,Big Data, Agilité, Qualité de données Nous recherchons un Scrum Master confirmé pour intervenir sur des trains Data dans le cadre d’un programme d’envergure pour un client. MISSIONS Chaque objet regroupe plusieurs produits Data (plateformes, usages métiers, flux, valorisation), et cette mission s’inscrit dans un contexte de montée en charge de l’activité et de structuration des pratiques agiles à l’échelle. Le Scrum Master aura un rôle clé dans : - l’accompagnement de plusieurs équipes au sein d’un objet, - la mise en œuvre et l’ancrage des bonnes pratiques agiles (Scrum, Kanban, agilité à l’échelle), - la coordination étroite avec les autres Scrum Masters afin d’assurer la cohérence des pratiques et des rituels inter-équipes, - la facilitation des cérémonies, la gestion des dépendances et l’amélioration continue du fonctionnement des équipes, - l’acculturation des parties prenantes (PO, métiers, acteurs institutionnels) aux principes agiles dans un environnement contraint. Une expérience sur des contextes Data (BI, Big Data, plateformes data, gouvernance, qualité de données) et sur des environnements publics ou fortement réglementés est attendue. Expertise souhaitée 5 ans minimum d'expérience en tant que Scrum Master Une expérience sur des contextes Data (BI, Big Data, plateformes data, gouvernance, qualité de données) est attendu Une expérience sur des environnements publics ou fortement réglementés est attendue est souhaitée
Offre d'emploi
Data Engineer (DBT / Snowflake / Airflow / Python)
bdevit
Publiée le
Apache Airflow
AWS Cloud
CI/CD
36 mois
40k-50k €
450-500 €
Issy-les-Moulineaux, Île-de-France
Contexte : Dans un environnement data à forts enjeux de performance, de fiabilité et de conformité, vous intégrerez une équipe data encadrée par un Tech Lead Data. Vous interviendrez sur la conception, l’industrialisation et l’exploitation de pipelines de données au sein d’une plateforme cloud moderne. Missions Principales : En tant que Data Engineer , vous serez en charge de : Concevoir et développer des pipelines de données robustes et scalables (ELT) ; Intégrer les données issues de sources multiples dans Snowflake ; Développer et maintenir les modèles de données analytiques avec DBT (datamarts métiers, tests, documentation) ; Orchestrer les traitements data via Apache Airflow (DAGs, scheduling, dépendances) ; Optimiser les performances, la qualité et les coûts du Data Warehouse ; Industrialiser les flux data (automatisation, CI/CD, monitoring, reprise sur incident) ; Participer à l’amélioration continue de la plateforme data et être force de proposition sur les choix techniques.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4405 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois