L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 853 résultats.
Offre d'emploi
Ingénieur Data H/F
Publiée le
IBM Db2
Oracle
SAP
1 an
75k-80k €
500-600 €
Luxembourg
Nous recherchons pour un de nos clients spécialisé dans le domaine bancaire un Ingénieur Data Custodian H/F pour une mission à pourvoir dès que possible sur le secteur du Luxembourg ville. Vos missions : Définition des standards et suivi de la qualité : Assurer le suivi qualitatif des évolutions des modèles de bases de données, leur documentation et leur maintenance (via SAP Power Designer). Mettre en place des indicateurs et tableaux de bord pour le suivi de la qualité des modèles de données. Accompagner les équipes dans la modélisation de leurs modèles afin de garantir le respect des règles de qualités et de normes internes mises en place. Gestion de la qualité et de la gouvernance : Veiller à l’application des normes et lignes directrices définies et la qualité technique. Assurer la mise en oeuvre technique de la rétention des données structurées conformément aux exigences réglementaires. Pilotage de projets et suivi des pratiques : Apporter un support aux projets liés à la gestion des données tel que le Data Lineage (BCBS 239), la Data Retention (GDPR) et la Data Classification. Maintenance et vérification des données : Cartographier les données de l’organisation. Documenter les métadonnées des données structurées et non structurées (rétention, classification, etc.).
Offre d'emploi
Data Scientist Senior – E-commerce Opération (H/F)
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
Python
1 an
10k-58k €
100-580 €
Paris, France
Télétravail partiel
Nous recherchons un Data Scientist Senior (H/F) pour rejoindre l'équipe E-commerce, Marketing & Relation Clients d’un acteur du retail. 🎯 L’objectif ? Concevoir, industrialiser et améliorer des solutions de machine learning visant à optimiser la performance opérationnelle et commerciale du e-commerce : qualité des opérations, rentabilité, productivité et personnalisation client. Tu évolueras au sein du pôle Data Science Customer , dans un environnement agile, collaboratif et cloud-native , où les approches data-driven et l’innovation sont au cœur de la stratégie omnicanale du groupe. 🚀 Tes missions principales : Identifier, avec les équipes métier et opérationnelles, les cas d’usage data à fort impact business Explorer et fiabiliser les données : nettoyage, agrégation, étude ad-hoc et préparation de datasets Concevoir, implémenter et évaluer des modèles de machine learning et d’analyse prédictive Définir et conduire des protocoles de test en conditions réelles (magasins, entrepôts, plateformes logistiques) Industrialiser et maintenir les solutions dans les environnements cloud (CI/CD, monitoring, itérations) Assurer la transmission des bonnes pratiques et le mentoring de data scientists juniors Participer activement à la communauté Data Science du groupe (séminaires, retours d’expérience, veille technologique) 🔧 Environnement technique : Langages & outils : Python, SQL, Terraform, Docker, GitLab, Jenkins Cloud & Orchestration : Google Cloud Platform (GCP), Cloud Composer / Airflow, Cloud Run, BigQuery, Cloud Batch, Kubernetes Engine, Vertex AI, Cloud Storage Méthodologies : Agile / Scrum, itérations rapides, revue de code et bonnes pratiques DevOps
Mission freelance
Data Analyste H/F
Publiée le
Apache Kafka
BigQuery
ETL (Extract-transform-load)
3 ans
380-400 €
Lille, Hauts-de-France
Télétravail partiel
Contexte Notre client poursuit sa stratégie Data en renforçant ses équipes autour du développement et de la maintenance de solutions Data Analytics . L’objectif est d’exploiter pleinement la donnée pour optimiser la prise de décision et accompagner les métiers dans leurs usages, en s’appuyant sur les environnements SQL, ETL, Power BI, Looker et GCP . Missions Le consultant interviendra au sein d’une équipe agile et sera en charge de : Analyser les besoins utilisateurs et proposer des solutions adaptées. Concevoir, développer et maintenir les solutions Data (alimentation, stockage, modélisation, restitution). Participer au run et assurer la qualité des développements. Optimiser le patrimoine existant et contribuer à la construction du nouveau socle Data sur Google Cloud Platform . Développer des modèles sémantiques Power BI en réponse aux besoins métiers. Participer aux rituels agiles et accompagner les métiers dans l’acculturation Data et les bonnes pratiques.
Mission freelance
Tech Lead Data Engineer
Publiée le
Azure
6 mois
400-550 €
Île-de-France, France
G Principales missions : - Assurer un leadership technique auprès des équipes de développement. - Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. - Participer activement aux phases de conception, développement et tests. - Porter la vision technique au sein des équipes Agile. - Garantir la qualité des livrables et veiller à la réduction de la dette technique. - Réaliser la modélisation des données. - Assurer une veille technologique et participer aux POCs. - Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques. FRIDF-TECHNOLEAD-2 - France - IDF - TECH LEAD - Confirmé (4-10 ans) CONCEPTION S'assure de l'exhaustivité et de la pertinence des spécifications confiées aux développeurs Coordonne les plans de développements et activités des développeurs sur l'ensemble des composants logiciels impactés Réalise la conception technique des applications et des échanges dans le cadre de projets et évolutions en privilégiant la réutilisation des composants existants DÉVELOPPEMENT Elabore, maintient et renforce les directives d'intégration logicielle et réalise la conception technique des applications et des échanges dans le cadre de projets et évolutions en privilégiant la réutilisation des composants Aligne son travail avec les principes d'urbanisation et les directives générales d'intégration logicielle préconisée par l'Architecture Transverse Supervise les aspects techniques d'un projet (à la demande du responsable de pôle) Participe à l'analyse fonctionnelle détaillée des besoins utilisateurs et peut être sollicité pour des ateliers de définition des spécifications générales Valide le design du logiciel et propose les frameworks utilisés dans le cadre du projet NORMALISATION ET QUALITÉ Assure la qualité du code des programmes informatiques Elabore et maintient les normes et patterns spécifiques d'intégration ainsi que leur diffusion auprès des développeurs et assure que ces normes / patterns sont bien suivies par l'équipe Est responsable également de l'élaboration et du maintien des abaques de coûts / délais nécessaires en regard des services fournis Assure la qualité des environnements de développement, des développements, du packaging et le bon usage des technologies à travers des audits de code Fait une veille permanente sur les évolutions technologiques ASSEMBLE LES COMPOSANTS ET PRÉPARE LA LIVRAISON DE SOLUTIONS Dans le cadre de projets, assemble les composants unitaires dans un package cohérent destiné au déploiement de la solution et le met sous gestion de configuration Assure la mise à disposition des environnements de développement Définit et administre une bibliothèque de composants logiciels, normes et patterns et assure la documentation de ces composants réutilisables dans la documentation ASSURE LE SUPPORT DE NIVEAU 3 Assure le support N3 pour la résolution de problèmes avec des composants développés par l'équipe et déployés dans les environnements Contribue à la rédaction des contrats de TMA en y intégrant les normes techniques COMMUNICATION ET VEILLE TECHNOLOGIQUE Assure une veille permanente sur les évolutions technologiques Assiste le responsable de pôle à identifier les axes d'amélioration technique et des compétences à développer
Mission freelance
DATA Engineer - AWS(H/F)
Publiée le
AWS Cloud
Azure DevOps
Data Lake
1 an
510-540 €
Île-de-France, France
Télétravail partiel
Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.
Mission freelance
Data Steward Senior
Publiée le
draw.io
JIRA
MEGA
10 mois
450-460 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte : cellule Marché Data Science Profil : Data Steward Senior Missions Principales : Organisation des travaux : animation d'atelier, coordination, reporting, Revue de l’existant : lecture de documents, création de glossaire validé par les Data Owners, Modélisation des objets métiers : diagrammes UML simplifiés, Anlayse de la qualité des données : statistiques, indicateurs, mise à jour des modèles, Maintenir les lignages de données : entre sources et consommateurs, Communication avec les parties prenantes : supports, cartographies, réponses aux questions
Mission freelance
Ingénieur Data - Nantes
Publiée le
Azure
Azure Data Factory
Cloud
12 mois
420-450 €
Loire-Atlantique, France
Télétravail partiel
Métier et Fonction Data Management Ingénieur Data Spécialités technologiques BI (Business Intelligence) Type de prestation Assistance Technique avec facturation au taux journalier Compétences requises Technologies et Outils : Azure Data Factory, Power BI Soft skills : Autonomie Langues : Anglais Description de la prestation Intégration dans l'équipe BI Entreprise pour répondre aux besoins des métiers tels que Finance, AdV, Comptabilité, RH, Recrutement, Commerce, Services Généraux. La mission consiste à moderniser l'architecture décisionnelle en migrant les packages SSIS vers Azure Data Factory (ADF) et à développer des pipelines cloud. Objectifs principaux : Migrer les traitements SSIS vers ADF en assurant performance, robustesse et conformité. Concevoir et développer des pipelines ADF pour la collecte, l’intégration dans l’entrepôt SQL Managed Instance ou Snowflake. Créer et maintenir des Data Flows ADF (nettoyage, enrichment, transformation). Mettre en place et gérer des triggers conditionnels pour orchestrer des traitements complexes. Optimiser les coûts et performances des modèles BI (Power BI, modèles sémantiques, DAX). documenter les développements et assurer la maintenance opérationnelle (MCO) de l'existant.
Offre d'emploi
Ingénieur Modern Data Stack (H/F) - 13
Publiée le
Apache Airflow
DBT
Microsoft Power BI
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Contexte Je recherche pour l’un de mes clients, entreprise industrielle française en pleine transformation digitale, un(e) Ingénieur(e) Data en CDI à Marseille. Cette opportunité est à pourvoir au sein de la DSI (100 collaborateurs), dans un environnement stimulant et innovant. Vous intégrerez le pôle Data et interviendrez sur des projets stratégiques de modernisation des architectures de données. Missions Rattaché(e) au Responsable de Production, vous aurez un rôle clé dans la conception, l’optimisation et la fiabilité des bases de données transactionnelles et décisionnelles. À ce titre, vos missions incluront : Concevoir et modéliser les bases de données en lien avec les chefs de projet, architectes, consultants ERP et experts décisionnels Participer à la mise en place et à l’évolution de l’entrepôt de données (Data Warehouse) et de la "Modern Data Stack" Développer et maintenir les flux de synchronisation entre systèmes (Airbyte, DBT, Airflow, Snowflake...) Assurer l’optimisation des performances des requêtes SQL/noSQL et le support aux équipes de développement Contribuer à l’adaptation du modèle de données dans le cadre du déploiement d’architectures microservices Participer au support technique de niveau 3 et à la veille technologique
Mission freelance
Lead Tech MLOps/ IA Générative / Data
Publiée le
Azure
Github
IA Générative
24 mois
Paris, France
Télétravail partiel
Product Owner Technique IA / Machine Learning / GénérativeContexte de la mission Nous recherchons un Product Owner technique pour piloter le développement d’applications de gouvernance des modèles de Machine Learning , ainsi que l’évolution d’une plateforme interne d’IA Générative (LLM Hub) . Ce rôle combine vision produit , leadership technique et collaboration étroite avec des équipes pluridisciplinaires (data, cloud, ML, IA générative). mission de : Structurer et faire évoluer les applications de gouvernance des modèles ML (inventaire, suivi des performances, intégration multi-cloud). Piloter le développement d’une plateforme centralisée de LLMs permettant l’accès à différents modèles (OpenAI, Mistral, Claude, etc.) via Azure et AWS. Définir la roadmap produit , prioriser les évolutions et garantir la cohérence technique et fonctionnelle des produits IA. Périmètres applicatifs1. Applications de gouvernance des modèles ML Objectif : inventorier et suivre les modèles de Machine Learning déployés sur différentes plateformes cloud (Azure ML, Databricks, AWS Sagemaker). Les principales fonctionnalités concernent : L’inventaire automatique des modèles hébergés sur les environnements cloud. La collecte et la restitution des métriques techniques et de performance. L’exposition des données via une API backend et un dashboard frontend en React. 2. Plateforme LLM Hub Objectif : offrir un accès unifié à plusieurs modèles de langage (LLMs) et des outils facilitant l’intégration de l’IA générative dans les applications internes. La plateforme comprend : La centralisation de l’accès aux LLMs via Azure OpenAI, AI Foundry et AWS Bedrock. Le suivi et le reporting de la consommation des modèles, avec une logique d’optimisation des coûts. Le développement de plugins et fonctionnalités clé en main (RAG, Text-to-SQL, WebSearch, chatbot interne, etc.). Le design de futures fonctionnalités : création d’agents, prompts library, guardrails, chatbot low code, packaging d’intégration. Responsabilités principalesVolet Product Owner Identifier et cadrer les besoins des utilisateurs et parties prenantes. Prioriser les sujets et piloter le backlog produit. Définir la vision long terme et les objectifs (OKRs, roadmap). Rédiger et clarifier les besoins fonctionnels pour l’équipe technique. Coordonner les échanges avec les autres PO et le management. Assurer le suivi du budget et des livrables. Volet Technique Participer aux ateliers de conception et aux refinements techniques . Challenger les choix d’architecture et les designs techniques. Garantir la qualité, la sécurité et la résilience des solutions. Assurer une veille technologique continue sur les outils IA, cloud et LLMs. Accompagner les nouveaux arrivants et promouvoir le partage de connaissances.
Mission freelance
Développeur / Data Engineer Observabilité h/f
Publiée le
Azure
DevOps
Grafana
6 mois
400-600 €
Levallois-Perret, Île-de-France
Télétravail partiel
Notre client recherche un Développeur Senior disposant d’une double expertise en développement backend et en ingénierie des données, pour rejoindre son équipe dédiée à l’observabilité. Concevoir, développer et maintenir des services backend (Python, PySpark) et des APIs orientées observabilité Construire et orchestrer des pipelines de données robustes (Airflow, Spark, Python) Garantir la qualité, la sécurité et la gouvernance des flux (tests, lineage, monitoring) Gérer les données via PostgreSQL, ADLS, Blob Storage, ElasticSearch Développer des dashboards et visualisations avancées (Grafana, ELK) Collaborer étroitement avec les équipes produit et développement (Agile/Scrum)
Mission freelance
Chef de projet ingestion sources de données vers dataplatforms
Publiée le
Budget Management
Data management
Gestion de projet
1 an
600-700 €
Corbeil-Essonnes, Île-de-France
Télétravail partiel
Nous recherchons un.e Chef.fe de Projet pour piloter les ingestions de sources de données au sein de nos Data Platforms (OnPremise & DR). Vos missions principales : Piloter l’ingestion de 7 sources de données stratégiques (Directions Technique & Moteurs Militaires) Coordonner la Squad Ingestion (10 experts Data) et les parties prenantes métiers/techniques Garantir la qualité, le coût, les délais et la sécurité des livrables Mettre en place un modèle « Blueprint Ingestion de Source de Données » structuré en 5 phases : Data Preparation Scope Lockdown & Data Extract Ingestion Execution Validation Report Out Handover to RUN MCO
Mission freelance
Data enginner SQL UNIX TEMPS PARTIEL
Publiée le
SQL
UNIX
3 mois
250-280 €
Île-de-France, France
Télétravail partiel
Vous renforcerez notre équipe de RUN et de maintien en conditions opérationnelles sur nos solutions. Vos activités principales sont : Générer des fichiers à intégrer en base à partir des portails opérateurs Intégrer en base, les données de parc et de facturation Lancer des batch et suivre les traitements Effectuer des requêtes pour extraction, injection ou correction en masse Mettre à jour les référentiels et contrôler la cohérence des données présentées dans l’applicatif pour nos clients Contrôle des intégrations automatisées
Mission freelance
Data Engineer - access management on Snowflake
Publiée le
Snowflake
3 ans
400-550 €
Île-de-France, France
Télétravail partiel
Adminisitration Snowflake - Confirmé - Impératif RBAC - Confirmé - Impératif GITLAB - Confirmé - Important TERRAFORM - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif) Description détaillée Au sein d'une Tribe Data Platform, l'équipe DATA « Data Platform Protect » (DPP) fournit des produits et des services pour gérer les accès et la protection des données sensibles (snowflake, app streamlit, etc.). Sous la responsabilité du Tech Lead Data Platform, le/la Data Engineer Snowflake « DPP » aura donc la charge de… Déployer un nouveau framework RBAC auprès des différentes Feature Teams DATA (+ 10 FT) sur leurs projets Gitlab gérant les ressources Snowflake Communiquer avec les TechLeads des Feature Teams Participer aux activités et évènements transverses de la Feature Team/Tribe, du pôle ENGINEERING ou DATA.
Offre d'emploi
Data Engineer Azure & Databricks
Publiée le
Apache NiFi
CI/CD
Data Lake
6 mois
55k-65k €
420-520 €
Fos-sur-Mer, Provence-Alpes-Côte d'Azur
Télétravail partiel
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation de différents projets, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Engineer Azure & Databricks (H/F). 🏭 Entreprise reconnue dans le secteur de la sidérurgie, implantée dans de nombreuses villes en France, notre client est le plus important producteur d'acier au monde, et a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. Description du poste 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Configurer, structurer et mettre en œuvre l’environnement Azure Data Lake et Databricks afin de répondre aux besoins d’ingestion et de traitement des données. 🔸 Créer des pipelines d’ingestion robustes sous Apache NiFi , intégrant des sources industrielles variées et respectant les contraintes techniques de performance, de mémoire et de réseau. 🔸 Mettre en place et maintenir un Unity Catalog garantissant la gouvernance, la traçabilité et le Data self-service . 🔸 Veiller à la stabilité de l’environnement , à la qualité du code, à la performance des traitements et à la complétude de la documentation technique. 🔸 Promouvoir la solution auprès des utilisateurs, rédiger la documentation associée et contribuer activement au partage de connaissances au sein de l’équipe Data.
Mission freelance
Tech Lead / Architecte Data
Publiée le
Angular
API
BigQuery
10 mois
Île-de-France, France
Le Tech Lead sera responsable de la conception technique, du pilotage des équipes de développement et de la mise en œuvre des standards d’architecture au sein d’un centre de compétences digital. Livrables attendus : Architecture one-pager Data contracts ADRs / HLD Modèle sémantique & KPI tree Runbook / SLOs Modèle de coûts Missions principales : Collaborer avec les parties prenantes, les delivery leads et les product owners pour comprendre les besoins, identifier les points de douleur et prioriser les fonctionnalités à forte valeur ajoutée. Assurer le suivi régulier des progrès auprès du management, en présentant les jalons atteints, les difficultés rencontrées et les prochaines étapes. Garantir la qualité technique, la performance et la maintenabilité des solutions développées. Compétences techniques requises : Maîtrise des architectures cloud et du développement orienté API Connaissance des frameworks front-end (React, Angular, Vue.js) Maîtrise des technologies back-end (Node.js, Java Spring) Expérience avec les frameworks d’intégration (ESB, API Gateway, microservices) Pratiques DevOps : CI/CD, tests automatisés, conteneurisation, orchestration Connaissance des plateformes data (Snowflake, BigQuery) et des infrastructures AI/ML (atout)
Mission freelance
95666/Qlik data analyst traitement de la donnée, dataviz (Qlik)
Publiée le
Qlik
6 mois
330-380 €
Nantes, Pays de la Loire
Télétravail partiel
Qlik Data analyst traitement de la donnée, dataviz (Qlik) data analyst avec des compétences en analyse et connaissance de la données, traitement de la donnée, dataviz (Qlik). Les tâches sont les suivantes : Mettre en place et suivre les indicateurs de suivi des différents produit du département Aider les équipes à l'amélioration des produits grâce à la data. Collecter et préparer des données : - Récupérer, nettoyer et préparer les données nécessaires à l'analyse des indicateurs de performance des produits. - Assurer l'intégrité et la qualité des données utilisées pour les analyses. Analyse des Performances : - Définir et suivre les KPI pertinents pour évaluer la performance des produits. - Réaliser des analyses approfondies pour identifier les tendances, les opportunités et les domaines à améliorer. Visualisation des Données : - Créer des tableaux de bord et des rapports de performance. - Utiliser des outils de visualisation de données pour présenter les résultats de manière claire et compréhensible, Qlik ou Superset. Communication des Résultats : - Présenter les résultats de l'analyse aux équipes produit. - Fournir des recommandations basées sur les données pour guider les décisions stratégiques. Collaboration : - Travailler en étroite collaboration avec les équipes produit, les développeurs et les autres analystes pour comprendre les besoins et les objectifs. - Participer à des réunions d'équipe pour partager les découvertes et proposer des solutions pour améliorer la performance des produits. Amélioration Continue : - Proposer des améliorations pour les systèmes de collecte et d'analyse de données. - Mettre en place des processus pour automatiser et optimiser l'analyse des indicateurs de performance. Compétences attendues : - Analyse statistique - Dataviz - SQL - Dataset - Appétence pour l'IA
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- CFE Cas spécial ou d'autres (mauvaises) expérience ??
- Activités à choisir
- Stratégie épuisement des fonds jusqu'à la retraite
- Catégorisation Activité sur INPi - Micro Entrprise
- Identifier les partenaires directs des Grands Groupes (sans intermédiaires)
1853 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois