Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 039 résultats.
Mission freelance
Data Engineer Nantes/pa
WorldWide People
Publiée le
Scripting
12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Mission freelance
Data Engineer GCP H/F
LOMEGARD
Publiée le
Ansible
Apache Airflow
Google Cloud Platform (GCP)
6 mois
400-480 €
Île-de-France, France
Dans le cadre d’un accroissement d’activité et afin de renforcer l’équipe Data d’un grand acteur bancaire, notre client recherche un Data Engineer GCP expérimenté. La mission s’inscrit dans un environnement Big Data / Cloud GCP en pleine transformation, avec des enjeux forts autour de l’industrialisation des pipelines, de la qualité de données et de la mise à disposition de datasets fiables pour les équipes métiers et analytiques. La mission est basée en Île-de-France (IDF) avec 2 jours de TT par semaine. Votre rôle consiste à: Mettre en place les chaînes d’ingestion, validation, croisement et enrichissement des données. Alimenter et exploiter le Data Lake GCP (GCS) et produire des agrégats (J/H/M). Développer des pipelines batch & streaming (Spark, Kafka, Scala). Industrialiser les traitements via Airflow / Composer et CI/CD. Mettre à disposition les données (API, fichiers, dashboards). Participer à la mise en production de modèles statistiques. Documenter, corriger les anomalies, assister les équipes d’exploitation. Travailler en mode Agile (Scrum/Kanban) .
Mission freelance
Data engineer Google cloud platform (GCP)
CAT-AMANIA
Publiée le
Apache Kafka
Apache Spark
BigQuery
6 mois
Île-de-France, France
Pour le compte d'un acteur majeur, nous recherchons un(e) Data Engineer confirmé(e) pour concevoir et déployer des chaînes de traitement de données complexes au sein d'un Datalake moderne. Vous intégrerez une équipe évoluant en mode Agile (Scrum/Kanban) avec une forte culture de l'automatisation. Vos responsabilités : Concevoir et mettre en œuvre les chaînes d’ingestion, de validation et de croisement de données. Assurer le déversement et l'enrichissement des données dans le Datalake. Produire automatiquement des agrégats (journaliers à mensuels) via la puissance du Cloud. Développer et documenter les User Stories en collaboration directe avec le Product Owner. Garantir la qualité via l'automatisation des tests fonctionnels et la correction des anomalies. Participer activement à la chaîne de delivery continue et assister les équipes d'exploitation. Profil recherché : Expertise confirmée sur la plateforme GCP (indispensable) . Maîtrise avancée de l'écosystème Spark / Scala / Kafka . Expérience solide sur les environnements conteneurisés ( GKE, Docker ) et l'Infrastructure as Code ( Terraform, Ansible ). Compétences pointues en stockage et requêtage ( BigQuery, SQL, HDFS ). Capacité à orchestrer des workflows complexes avec Airflow / Composer . Esprit collaboratif, curieux des évolutions technologiques et doté d'un excellent relationnel.
Mission freelance
Consultant(e) – Étude de Faisabilité Finance Data
Lùkla
Publiée le
API
Cloud
High Level Design (HLD)
1 an
Marseille, Provence-Alpes-Côte d'Azur
Contexte : Dans le cadre d’un projet Groupe, nous recherchons un(e) consultant(e) pour réaliser une étude de faisabilité visant l’intégration des données financières des terminaux dans les Finance Datamarts Groupe . Le périmètre couvre les processus : Accounts Payable (AP) Accounts Receivable (AR) General Ledger (GL) L’environnement est multi-ERP (IFS, SAP, Sage, Navision…) avec une gouvernance décentralisée et des niveaux de maturité hétérogènes. Objectifs de la mission : Le consultant interviendra exclusivement sur une phase d’étude et d’aide à la décision , incluant : Analyse des processus financiers des terminaux Cartographie des ERP et des flux de données Évaluation de la qualité et de la cohérence des données Analyse des architectures et patterns d’intégration (batch, API, cloud-to-cloud) Étude des aspects gouvernance, sécurité et conformité Définition de scénarios de faisabilité (2 à 3 options) Recommandation finale de type Go / No Go Livrables attendus : Analyse fonctionnelle détaillée Cartographie des systèmes et data Schémas d’architecture de haut niveau (HLD) Scorecards de faisabilité Analyse des risques et plans de mitigation Rapport final consolidé Support de comités de pilotage
Mission freelance
Manager Transition Data Factory (H/F)
Cherry Pick
Publiée le
Microsoft Power BI
Pilotage
6 mois
750 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un MT Data Factory (H/F) pour l'un de ses clients qui opère dans le secteur du transport aérien et de la gestion d’infrastructures aéroportuaires. Description🌐 Contexte de mission Dans le cadre de programmes de transformation IT à forte dimension stratégique, une organisation recherche un Manager de Transition Senior afin d’accompagner le responsable d’un département technologique dans le pilotage et la coordination des activités stratégiques et opérationnelles. La mission s’inscrit dans un environnement complexe avec un portefeuille de projets IT orientés Data et transformation du SI , nécessitant une vision globale des programmes, une forte capacité de gouvernance et un accompagnement opérationnel des équipes projets. ⚙️ Missions principales et rôle Gouvernance et stratégie : Concevoir et porter les dossiers d’investissement des projets . Rédiger les cahiers des charges techniques et analyser les offres dans le cadre des consultations. Piloter les prestations et assurer le suivi des engagements. Garantir l’alignement entre feuilles de route stratégiques et opérationnelles . Préparer les éléments nécessaires aux instances de gouvernance et de décision . Contribuer à l’amélioration continue des processus internes. Pilotage du portefeuille de programmes : Participer à l’identification et au suivi des projets du domaine. Assurer le pilotage du portefeuille projets et le suivi de la performance des programmes. Mettre à jour les outils de suivi et de pilotage du portefeuille . Produire les tableaux de bord et reportings consolidés . Participer aux instances de coordination et aux comités de pilotage. Coordination et accompagnement opérationnel : Assurer la coordination entre les équipes techniques, métiers et les différentes parties prenantes. Accompagner les chefs de projets et les ingénieurs dans le pilotage opérationnel. Faciliter le partage d’informations entre les équipes et les directions concernées. Assister le responsable du département dans certaines missions de support managérial . Contribution aux initiatives transverses : Participer à l’organisation d’évènements professionnels (agenda, contenus, logistique). Contribuer à la valorisation et à la communication autour des programmes en cours. 🎯 Objectifs Structurer et piloter efficacement le portefeuille de projets stratégiques . Garantir la cohérence entre les initiatives IT et les orientations stratégiques. Améliorer la visibilité et le pilotage des programmes via des reportings consolidés. Accompagner les équipes dans la réussite opérationnelle des projets de transformation .
Offre d'emploi
PO Data / Business Analyst confirmé
KOMEET TECHNOLOGIES
Publiée le
Microsoft Power BI
45k-60k €
Paris, France
Intervention dans un projet BI avec une forte composante métier. Le consultant participera aux ateliers de recueil du besoin , réalisera des maquettes de Dashboards sous Power BI avant développement dans MicroStrategy (qui sera assuré par la DSI) , afin de s’assurer de l’alignement avec les attentes métiers. La mission inclut également la rédaction des Spécification Fonctionnel, des activités de data analyse / modélisation et la participation à la recette métier .
Offre d'emploi
Architecte Data GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data GCP pour définir et piloter l’évolution des plateformes de données cloud natives sur Google Cloud. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies GCP tels que BigQuery, Dataflow, Pub/Sub, Cloud Storage, Dataproc ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur GCP.
Offre d'emploi
DATA SCIENTIST NLP / IA GEN pour développement de projets IA Gen
SMILE
Publiée le
AI
API REST
Méthode Agile
3 mois
40k-57k €
400-500 €
Île-de-France, France
Bonjour, Dans le cadre du centre d'expertise de la direction Data & IA, nous recherchons un(e) data scientist de 3 à 6 ans d'expérience. Il s'agira d'intervenir sur divers sujets : contribuer à l'analyse des use cases remontés par les entités du groupe , contribuer potentiellement à des benchmarks, prendre en charge une application d'évaluation RAG , contribuer à l'évaluation de prompt (équipe Expertise Transverse du Centre d'Expertise Data Science composée de 9 data scientists dont les projets DS s'articulent autour des outils NLP, Search, IA Générative). Les tâches à réaliser sont : - Analyse des cas d'usages - Cadrage, participation aux développement et suivi des projets - Prompt engineering - recommandation méthodologique - Evaluation des performances liées à l'utilisation de LLM, RAG - Partage autour de la veille technologique -Classification des Prompt. -Mutualiser cas d’usage - analyse des verbatim. -Tester et challenger la solution interne Contexte : Vous allez intégrer l'équipe qui centralise l'analyse des besoins ou des cas d'usage IA Gen. Il faut soit analyser la faisabilité des cas remontés , soit contribuer à des tests sur un périmètre restreint. Par ailleurs, il faut suivre l'usage d'une application d'évaluation RAG afin de répondre aux sollicitations utilisateurs. Expertises : - expert python - containerisation - CICD/MLOPS - API REST - Méthodes agiles - éventuellement groovy - LLM, NLP - VLLM, TensorRT > Python, maching learning - LLM, TGI, Aphrodite Engine, etc. Une expérience dans le domaine bancaire serait un plus
Offre d'emploi
DATA ANALYST GCP (420€ MAX)
BEEZEN
Publiée le
Google Cloud Platform (GCP)
3 mois
40k-80k €
290-420 €
Île-de-France, France
Maîtriser SQL et BigQuery, rédiger et optimiser des requêtes complexes pour extraire et analyser des données • Gérer et modéliser les données, concevoir des pipelines optimisés dans BigQuery en garantissant qualité, fiabilité et cohérence des analyses • Appliquer Python et ses bibliothèques analytiques (Pandas, NumPy, PySpark) pour les traitements et le prototypage de solutions data • Créer et optimiser des dashboards interactifs sous Looker Studio et Lokker, identifier et suivre les KPIs critiques pour le pilotage métier • Exploiter les bases de données relationnelles et NoSQL (PostgreSQL, MongoDB, DBL, etc.) • Comprendre et appliquer les architectures data modernes : Data Lake, Data Warehouse • Utiliser les environnements Cloud, notamment GCP ou Azure • Mettre en œuvre CI/CD avec GitLab CI et gérer le versionning avec Git • Appliquer les principes DevOps pour améliorer la fiabilité et l’efficacité des traitements • Travailler en méthodologies agiles, notamment Scrum, Sprint Planning et Backlog Refinement • Collaborer efficacement avec les équipes métiers et techniques pour produire des analyses fiables et exploitables
Offre d'emploi
TECH LEAD DATA – PALANTIR / PYSPARK / PYTHON
OCTOGONE
Publiée le
PySpark
Python
6 mois
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre d’un projet stratégique chez l’un de nos clients grands comptes, nous recherchons un Tech Lead Data disposant d’une forte expertise sur l’écosystème data moderne et les technologies Palantir. En tant que référent technique, vous interviendrez sur la conception, l’industrialisation et l’optimisation de pipelines data à forte volumétrie, tout en accompagnant les équipes dans la mise en œuvre des bonnes pratiques de développement et d’architecture. Responsabilités principales • Concevoir et piloter l’architecture des pipelines data • Développer et optimiser des traitements distribués en PySpark • Développer des composants et scripts en Python pour le traitement et l’orchestration des données • Intervenir sur les environnements Palantir (Foundry ou équivalent) • Encadrer techniquement les équipes data (data engineers / analysts) • Garantir la qualité, la performance et la fiabilité des pipelines • Participer aux choix d’architecture et aux décisions techniques • Collaborer avec les équipes métiers et les architectes data Compétences requises • Forte expertise Python et PySpark • Expérience confirmée sur des architectures data distribuées • Expérience sur la plateforme Palantir (Foundry idéalement) • Maîtrise des problématiques d’industrialisation data (ETL, orchestration, performance) • Expérience en rôle de Tech Lead ou référent technique • Bonne compréhension des enjeux data à grande échelle
Offre d'emploi
Ingénieur DevOps – Plateforme Data H/F
DSI group
Publiée le
Azure Data Factory
Azure DevOps
45k-55k €
Lyon, Auvergne-Rhône-Alpes
Missions principales: Déploiement et automatisation Concevoir, mettre en place et faire évoluer les outils de déploiement continu (CI/CD) pour les applications et traitements de données. Automatiser les processus d’intégration, de livraison et de déploiement des solutions analytiques. Maintenir les pipelines CI/CD et garantir leur fiabilité. Gestion de l’infrastructure Administrer et faire évoluer les infrastructures Linux supportant les plateformes analytiques. Maintenir les composants middleware, bases de données et outils techniques . Anticiper et gérer les problématiques liées à l’obsolescence, la sécurité et les évolutions fonctionnelles . Collaboration avec le SI Collaborer avec les différents acteurs du système d’information : Développeurs Architectes Équipes sécurité Équipes d’exploitation S’assurer de la conformité des solutions avec les standards et l’architecture de l’entreprise . Documentation et bonnes pratiques Rédiger et maintenir la documentation technique et opérationnelle . Formaliser les procédures liées aux déploiements et à l’exploitation. Travail d’équipe Participer aux cérémonies agiles et aux activités de l’équipe . Contribuer à l’amélioration continue des pratiques DevOps. Activités secondaires Étudier les évolutions de la plateforme data dans le cadre de la transformation du SI DATA (Cloud / On-Premise). Participer à la définition des solutions permettant d’assurer la continuité des activités analytiques dans un nouveau contexte DSI . Accompagner les équipes data dans l’adaptation aux nouveaux environnements technologiques.
Offre d'emploi
Tech Lead Data Snowflake Lille
Proxiad
Publiée le
Databricks
DBT
Snowflake
48k-53k €
Lille, Hauts-de-France
Dans le cadre d’un projet d’amélioration de la qualité et des pratiques de développement Data, nous recherchons un Tech Lead Data expérimenté capable d’intervenir à la fois sur la technique et l’acculturation des équipes . Vous interviendrez dans un environnement data moderne pour structurer les bonnes pratiques, challenger l’existant et accompagner les équipes dans la montée en maturité technique. 🎯 Vos missions Au sein d’une équipe Data, vous aurez notamment pour responsabilités : Sensibiliser et mettre en œuvre les bonnes pratiques issues d’un audit technique Apporter un regard externe sur la qualité du code et des architectures data Concevoir et développer des pipelines data robustes et industrialisés Mettre en place et monitorer les orchestrations data (parcours & triggers) Accompagner les équipes dans l’adoption de bonnes pratiques de développement et d’architecture Contribuer à la fiabilisation et à la performance des flux de données 🛠 Environnement technique Snowflake DBT Airflow SQL avancé Python Git VS Code
Offre d'emploi
Expert Google Workspace Data & IA
Management Square
Publiée le
BigQuery
Google Workspace
IA Générative
1 an
47k-55k €
480-530 €
Niort, Nouvelle-Aquitaine
Expert Senior Google Workspace, Data & IA Contexte de la mission : Dans le cadre d’un programme de transformation digitale, nous recherchons un Expert Senior Google Workspace, Data & IA capable d'assurer l'interface entre l'expertise technique et les enjeux métiers sur l'ensemble de l'écosystème Google Workspace et ses extensions Data & IA . Le profil recherché est un consultant hybride à forte valeur ajoutée , capable d’administrer l’environnement collaboratif, d’analyser la donnée d’usage (BigQuery / Looker), de développer des solutions d’automatisation (AppSheet) et de porter la vision fonctionnelle (RSE, Adoption, IA) auprès des directions métiers. Description des missions : Volet Data & Analytics (Expertise Looker & BigQuery) Business Intelligence (Looker) Conception et maintenance de modèles LookML complexes Élaboration de dashboards de pilotage stratégique afin de mesurer l’adoption des outils et la performance des processus métiers Data Analysis (BigQuery) Exploitation avancée des données (logs d’audit Google Workspace, données métiers) via requêtage SQL optimisé Structuration des tables et gestion des coûts de stockage et de calcul Pilotage RSE & Usages Définition et mise en place d’indicateurs de suivi sur l’infobésité et l’hyperconnexion Contribution aux démarches de Qualité de Vie au Travail (QVT) et de sobriété numérique Volet IA Générative (Gemini) & Innovation Centre d’Expertise IA Contribution à la structuration du centre d’expertise IA Rôle de référent technique et fonctionnel sur la solution Gemini Acculturation & Animation Animation d’une communauté d’ambassadeurs IA Organisation de webinars , rédaction de guides de bonnes pratiques et identification de cas d’usage à forte valeur ajoutée Intégration Métier Déploiement de solutions IA opérationnelles : assistance rédactionnelle synthèse documentaire assistants virtuels adaptés aux besoins métiers Volet Google Workspace : Technique & Fonctionnel Expertise Admin & Sécurité Administration avancée de la console Google Workspace Audit et optimisation des configurations de sécurité (DLP, Context-Aware Access) en collaboration avec les équipes cybersécurité Automatisation des Processus Développement d’applications métiers via AppSheet (Low-code) Développement de Google Apps Script pour automatiser les tâches manuelles et remplacer des fichiers Excel complexes Transition Office vers Google Accompagnement technique et méthodologique pour la migration des outils Microsoft (Excel / VBA) vers l’écosystème Google (Sheets / Apps Script / BigQuery) Posture AMOA / PO Assistance au Product Owner dans : la définition de la roadmap produit la rédaction de User Stories la conduite du changement
Mission freelance
101005/Data Analyst Nantes - langage Python et du PySpark.
WorldWide People
Publiée le
PySpark
Python
12 mois
400-500 €
Nantes, Pays de la Loire
Data Analyst Nantes - langage Python et du PySpark. - Excellentes connaissances des techniques statistiques et des méthodes de Data Science – Datamining. - Maîtrise de SGBD et du SQL. - Expérience significative dans la gestion et la manipulation de données au sein d’une architecture data complexe. - Maîtrise de Git. - Capacité d’analyse et de préconisation. Expériences requises : - Au moins deux ans d'expérience en travail en Agilité. - Au moins quatre ans d'expérience en réalisation de projets data orientés analyse et datascience. - Au moins trois ans d'expérience en manipulation de données en environnement data complexe et industriel. Contexte : Notre client, acteur du secteur du transport, recherche un data analyste senior pour une mission stratégique. Le profil devra collaborer avec le PPO Data pour cadrer des analyses et tableaux de bord à destination des métiers. Il sera force de proposition pour les plans d'analyses ad hoc et l'identification de problématiques métiers résolubles par la data. Responsabilités : - Comprendre et modéliser les problématiques métier et celles du pôle. - Définir avec justesse le périmètre des données nécessaires à la solution technique. - Concevoir et développer des modèles de machine learning. - Modéliser des résultats d’analyse des données pour les rendre lisibles, exploitables et actionnables. - Créer des visualisations appropriées aux besoins cartographiques si nécessaire. - Estimer la charge à allouer aux différents traitements et actions techniques prévus. - Optimiser le modèle de donnée des projets data de l’équipe. - Développer des scripts Python optimisés. - Créer les tables ou vues nécessaires aux projets data de l’équipe. - Échanger avec les ops de la Team Data pour l'industrialisation de la collecte, des traitements, de la supervision et de la restitution des données. - Réaliser des plans d’analyse data. - Expliquer le sens des informations exploitables en termes pertinents pour les métiers. - Conceptualiser et développer autour d’une problématique métier. - Communiquer les informations en soulignant la valeur des actions. - Formaliser les résultats d’analyse et les présenter aux métiers commanditaires. - Être force de proposition sur la mise en place d’actions pertinentes en fonction des résultats d’analyses et des conclusions (préconisations). La mission nécessite : - Maîtrise du langage Python et du PySpark. - Excellentes connaissances des techniques statistiques et des méthodes de Data Science – Datamining. - Maîtrise de SGBD et du SQL. - Expérience significative dans la gestion et la manipulation de données au sein d’une architecture data complexe. - Maîtrise de Git. - Capacité d’analyse et de préconisation. Expériences requises : - Au moins deux ans d'expérience en travail en Agilité. - Au moins quatre ans d'expérience en réalisation de projets data orientés analyse et datascience. - Au moins trois ans d'expérience en manipulation de données en environnement data complexe et industriel.
Mission freelance
POT9028 - Un architecte Data - Snowflake sur Massy
Almatek
Publiée le
SQL
6 mois
Massy, Île-de-France
ALMATEK recherche pour l'un de ses clients, Un architecte Data - Snowflake sur Massy CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Languages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
Mission freelance
Développement (Power Apps, Dynamics 365, Azure,)
Codezys
Publiée le
.NET
Azure
Azure Data Factory
12 mois
Paris, France
Contexte de la mission Dans le cadre de la prestation de Conception-Développement sur le périmètre des actifs réels, notre objectif est de garantir la performance, la fiabilité et l'évolution continue des applications concernées. La mission inclut plusieurs volets essentiels afin d'assurer une gestion optimale des actifs réels et de leurs flux associés. Les différentes missions confiées sont : Participation aux développements conformément à la roadmap applicative Maintenance corrective et évolutive des applications et des flux entrants/sortants Support aux utilisateurs intervenant sur ce périmètre Fiabilisation technique des systèmes et processus Objectifs et livrables Les tâches et livrables à réaliser dans le cadre de cette mission comprennent : Analyse des demandes utilisateur et évaluation de leurs impacts techniques et fonctionnels Développement des évolutions et corrections nécessaires Conduite de tests unitaires pour valider les changements réalisés Support technique durant les phases d'homologation, en assurant la disponibilité et la cohérence des solutions Réalisation de diagnostics en cas d'incidents en production et mise en œuvre d'actions correctives adaptées Support aux utilisateurs pour le bon fonctionnement des applications et des flux Gestion des mises en production en respectant les processus et calendriers établis
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Passer de freelance en portage : quelle société choisir
- imposition des dividendes
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- Etat du marché 2026: rebond ou stagnation ?
- Mission à 600 km de chez moi - Frais de double résidence
- Facturation electronique 2026
1039 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois