L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 419 résultats.
Mission freelance
Data Engineer
DEVIK CONSULTING
Publiée le
API REST
Azure
Databricks
1 an
400-700 €
Paris, France
Description Pour le compte de notre client grand compte, Nous recherchons Data Engineer pour intervenir sur une plateforme Data stratégique, avec un rôle clé dans la gestion des flux de données et le maintien en condition opérationnelle. Tâches principales Assurer l’ingestion et l’orchestration des données (JIRA, CRM type Salesforce/Zoho, outils métiers) Centraliser et structurer les données au sein d’un Data Lake Développer et maintenir des pipelines de données (Python, API REST) Garantir la qualité, la sécurité et l’anonymisation des données Collaborer avec les équipes métiers pour faciliter le reporting Profil Recherché Expérience confirmée en Data Engineering Maîtrise de Python et des API REST Bonne connaissance de PostgreSQL Expérience sur Azure et Databricks Sensibilité à la data visualisation appréciée Rigueur, autonomie et esprit analytique Lieu : Paris
Mission freelance
Directeur de Projet Data Banque (H/F)
Signe +
Publiée le
Big Data
12 mois
700 €
Paris, France
Dans le cadre de la transformation de ses systèmes d’information Finance et Risques, un acteur majeur du secteur bancaire recherche un Directeur de Programme IT expérimenté. Le programme porte sur des enjeux stratégiques liés à la data, aux réglementations financières et à la modernisation des plateformes SI. Le rôle est fortement exposé et implique des interactions régulières avec la Direction Financière ainsi que des instances de gouvernance de haut niveau. Missions principales Pilotage de programme Piloter un programme IT d’envergure (budget pluri-millions d’euros) dans un environnement bancaire exigeant Définir et suivre la feuille de route globale (planning, budget, risques, dépendances) Animer les comités de pilotage et assurer le reporting auprès des directions métiers et de la gouvernance Garantir l’atteinte des objectifs en termes de qualité, délais et coûts Pilotage SI et Data Assurer la coordination entre les équipes IT, les équipes data et les métiers Finance / Risques Apporter une vision stratégique sur les sujets Big Data (opportunités, contraintes, impacts SI) Superviser les trajectoires d’évolution des plateformes et des architectures data Coordination métier Finance / Risques Être l’interlocuteur privilégié de la MOA Finance et Risques Comprendre et challenger les besoins fonctionnels liés aux reportings réglementaires et aux dispositifs ALM Faciliter les échanges avec les équipes Contrôle de Gestion et Finance Gouvernance et gestion des parties prenantes Interagir avec des interlocuteurs de haut niveau (DAF, directions métiers, Directoire) Piloter des dispositifs multi-équipes incluant des prestataires et centres de services Sécuriser l’avancement du programme dans un contexte transverse et international Conformité réglementaire Intégrer les contraintes réglementaires liées aux exigences BCBS239 Garantir la qualité, la traçabilité et la fiabilité des données financières et de risques Profil recherché Expérience confirmée en Direction de Programme IT dans le secteur bancaire Solide compréhension des systèmes d’information Finance / Risques Bonne culture Big Data (enjeux, architectures, cas d’usage) sans être un profil développeur Expérience du pilotage de programmes complexes et fortement exposés Capacité à dialoguer avec des interlocuteurs métiers et techniques Expérience de gestion de prestataires et de centres de services Excellentes compétences de communication, leadership et gestion des priorités Conditions Localisation : à définir (présence régulière requise) Démarrage : idéalement début avril Durée : longue mission
Offre d'emploi
Data Analyst Confirmé (H/F) – Power BI / Snowflake
CELAD
Publiée le
Microsoft Power BI
Snowflake
9 mois
Massy, Île-de-France
Dans le cadre d’une transformation BI, notre client souhaite structurer et fiabiliser l’ensemble de ses données afin d’améliorer ses outils de pilotage. Aujourd’hui, les enjeux sont clairs : harmoniser des données issues de multiples sources améliorer leur qualité et leur fiabilité automatiser les reportings existants mettre en place des dashboards performants et exploitables Votre mission Intégré(e) à une squad Data déjà en place, vous interviendrez sur des sujets à fort impact : Concevoir et structurer des datamarts à partir de données complexes Migrer les datasets et dataflows vers des modèles plus robustes Maintenir des dashboards sous Power BI Industrialiser et automatiser les reportings existants Améliorer la qualité et la cohérence des données (nettoyage, normalisation) Environnement technique SQL / Snowflake Power BI (dataviz + modélisation) CRM (type Salesforce)
Offre d'emploi
Tech Lead Data et IA Générative H/F
JEMS
Publiée le
50k-65k €
Nantes, Pays de la Loire
Nous recherchons un(e) Tech Lead Data et IA Générative capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : 36ql69h8p2
Offre d'emploi
Administrateur Réseau H/F
CONSORT GROUP
Publiée le
Réseaux
32k-38k €
Tchéquie
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Première agence régionale ouverte en 2001, l'agence Sud-Ouest représente les expertises du groupe en Occitanie, notamment à Toulouse et Castres. Forte de près de 150 collaborateurs, elle accompagne une trentaine de clients en s’appuyant sur deux Centres de Services et privilégie un accompagnement individualisé. Administrateur Réseau Confirmé H/F C’est votre mission Vous êtes passionné·e par les réseaux et l’infrastructure IT ? Ce poste est fait pour vous. En tant que Administrateur Réseaux , vous êtes responsable du fonctionnement et de la fiabilité des infrastructures réseau et de la sécurité et performance de l'écosystème : Côté build : Déploiement et configuration des équipements réseaux (switch, routeurs, firewall, Wi-Fi) Mise en place et optimisation des VLANs, routage et interconnexion multi-sites Automatisation des tâches réseau via scripts ou outils (Ansible, Python, Bash) Participation à la conception et l’évolution des architectures réseau internes Documentation et standardisation des configurations et procédures Côté run : Supervision et maintien en condition opérationnelle des réseaux et systèmes Analyse et résolution des incidents réseau complexes en autonomie Optimisation des flux et performance réseau Gestion des accès et sécurité réseau (VPN, ACL, firewall rules) Suivi et reporting des indicateurs de disponibilité et sécurité C’est votre parcours Vous avez au moins 3 ans d’expérience sur des environnements réseaux ou systèmes . Vous aimez résoudre des problèmes complexes et travailler en autonomie , tout en collaborant avec vos collègues pour faire évoluer l’infrastructure. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la responsabilité. C’est votre expertise : Administration et dépannage Linux / Windows Server Protocoles IP, LAN/WAN, TCP/UDP, BGP/OSPF/MPLS Firewall et sécurité réseau (Fortinet, Cisco, Palo Alto, etc.) Supervision et monitoring réseau (Zabbix, Grafana, Nagios) Virtualisation réseau et serveurs (VMware, Hyper-V) Automatisation via Ansible, Python ou PowerShell C’est votre manière de faire équipe : Autonome, proactif·ve et force de proposition Sens de l’analyse et rigueur technique Capacité à vulgariser et documenter pour les équipes Curieux·se, toujours à l’affût des nouvelles technologies et bonnes pratiques C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Toulouse Contrat : CDI Télétravail : Hybride selon mission Salaire : De 32 K€ à 38 K€ (selon expérience) brut annuel Famille métier : Systèmes / Réseaux / DevOps Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Offre d'emploi
Lead Developer Backend - Expertise IA & Agentique - Paris (H/F)
EASY PARTNER
Publiée le
C/C++
Data science
Go (langage)
71k-90k €
Paris, France
Contexte du poste Vous êtes passionné par l'innovation et l'intelligence artificielle ? Rejoignez une entreprise en pleine croissance spécialisée dans le développement de solutions numériques avancées, située en plein cœur de Paris. Notre département R&D, composé d'une équipe pluridisciplinaire de talents, cherche à agrandir ses rangs avec un Lead Developer Backend afin de piloter des projets stratégiques liés à l'IA et aux systèmes agentiques. Ce poste clé est à pourvoir pour renforcer notre expertise technique et soutenir notre croissance face aux défis complexes du numérique, tout en collaborant étroitement avec la direction et les équipes de base de données. Missions Missions principales - Concevoir, architecturer et implémenter notre nouveau système avec une forte composante IA. - Assurer le pilotage technique et l'accompagnement de l'équipe dans la réflexion et l'optimisation technologique. - Travailler en étroite collaboration avec la direction R&D pour aligner les objectifs stratégiques. - Prendre en charge l'intégralité du cycle de vie des projets, de la définition des besoins à leur déploiement. Missions annexes - Participer activement à la gestion des incidents et à l'amélioration continue. - Contribuer à la veille technologique et à l'innovation au sein de l'entreprise.
Offre d'emploi
Expert Data Engineer / DevOps
R&S TELECOM
Publiée le
Apache Kafka
Java
Kubernetes
6 mois
40k-45k €
400-500 €
Bordeaux, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre d’un programme structurant de modernisation du système d’information , nous recherchons un profil Data Engineer / DevOps senior pour renforcer une équipe existante. La mission s’inscrit au cœur du SI cible , au service de plusieurs applications critiques orientées data, intégration et services temps réel. Le poste vise à industrialiser les chaînes DevOps et à structurer les flux Data Lake dans un environnement cloud native, fortement automatisé et orienté open source . Démarrage souhaité : mai / juin Localisation : Rive gauche bordeaux, nécessite un véhicule Objectifs de la mission Le rôle est double : DevOps / Plateforme Industrialisation et sécurisation des chaînes d’intégration et de déploiement Standardisation des pratiques GitOps sur un socle Kubernetes multi‑environnements Renforcement de l’automatisation et de l’observabilité des plateformes applicatives et data Data / Streaming Accompagnement à la conception et à la standardisation des flux data temps réel Structuration d’un Data Lake orienté streaming et lakehouse Garantie de la performance, de la résilience et de la maintenabilité des flux Domaines d’intervention & compétences clés Socle Kubernetes & DevOps Orchestration : Kubernetes (Namespaces, Ingress, RBAC) GitOps : GitLab CI, Helm, ArgoCD Observabilité : Grafana, Prometheus, Loki, Tempo Sécurité CI/CD : SAST, DAST, Trivy Environnements : OpenStack Écosystème Data & Data Lake Streaming & CDC : Kafka, Debezium Processing : Spark SQL, Airflow Lakehouse : Apache Iceberg Query Engine : Trino (PrestoSQL) Stockage objet : Ceph (ou équivalent) Micro‑services & APIs Runtimes : Java / Quarkus, Python API Management : Kong Protocoles : MQTT (atout) Optimisation des performances applicatives et data Livrables attendus (exemples) Socle & automatisation Mise en place d’architectures ArgoCD (Application of Applications) Catalogue de Charts Helm industrialisés Bibliothèque de pipelines GitLab CI/CD standardisés et sécurisés Data & Streaming Provisionnement automatisé des clusters Kafka et connecteurs Debezium Configuration optimisée de Trino sur stockage objet Mise en place des DAGs Airflow pour l’orchestration des traitements Documentation & MCO Dashboards de supervision avancés Rédaction du Dossier d’Architecture Technique (DAT) Rédaction de Runbooks MCO / PRA Définition de standards techniques et bonnes pratiques cloud native Profil recherché Expérience confirmée (5 à 8 ans minimum) en DevOps, Data Engineer ou Platform Engineer Très bonne maîtrise de Kubernetes et des pratiques GitOps Expérience concrète sur des plateformes Kafka et Data Lake À l’aise dans des contextes SI complexes et structurants Capacité à travailler en collaboration étroite avec équipes de développement, architectes et chefs de projet Autonomie, rigueur, sens de l’industrialisation
Mission freelance
Data Product Manager/Environnement anglophone
Comet
Publiée le
Data governance
1 an
400-550 €
Île-de-France, France
Dans le cadre de la structuration de ses activités data à l’échelle mondiale, notre client recherche un Data Product Manager Senior pour piloter la conception et la mise en œuvre de modèles de données industriels et de solutions de reporting. Vous interviendrez sur un périmètre stratégique couvrant plusieurs applications déployées dans des usines à l’international, avec un objectif clair : standardiser, fiabiliser et valoriser la donnée au service de la performance industrielle. Vos responsabilités En tant que Data Product Manager, vous serez au cœur de l’interaction entre les équipes métiers et techniques. Vos missions principales : Comprendre les enjeux business liés à la performance industrielle Recueillir et structurer les besoins métiers Animer des ateliers avec les différentes parties prenantes Concevoir et formaliser les modèles de données (data modeling, business layer) Définir l’architecture fonctionnelle des solutions data Coordonner les équipes data (Data Engineers, BI, Architectes) Organiser les contributions autour du modèle "Data as a Service" Documenter les solutions et démontrer leur valeur Préparer les phases de mise en œuvre (budget, planning, roadmap) Formaliser les recommandations finales pour le lancement des projets
Offre d'emploi
Data Engineer GenAI / Databricks
UCASE CONSULTING
Publiée le
AWS Cloud
Databricks
GenAI
1 an
40k-45k €
400-710 €
Île-de-France, France
Bonjour à tous 😀 🎯 Contexte : Dans le cadre du développement de ses capacités en Intelligence Artificielle Générative , nous recherchons un Data Engineer spécialisé sur Databricks pour intervenir sur des cas d’usage innovants à forte valeur ajoutée. Le poste combine des enjeux de data engineering, machine learning et mise en production dans un environnement moderne. 🛠️ Missions principales Concevoir et développer des modèles de Machine Learning (GenAI) Collecter, préparer et exploiter les données Développer des pipelines d’ingestion et de transformation Assurer la mise en production et le monitoring des modèles (MLOps) Intervenir sur des sujets d’architecture RAG et fine-tuning Conseiller sur les choix techniques et les cas d’usage 🧩 Environnement technique Python / SQL / Pandas Databricks Machine Learning / Deep Learning (LLM, Transformers) Architectures GenAI (RAG, fine-tuning) Cloud AWS MLOps
Offre d'emploi
Data Engineer spécialisé·e Informatica PowerCenter
ATTINEOS
Publiée le
Informatica
2 ans
Rouen, Normandie
Dans un contexte de projets stratégiques autour de la donnée, nous recherchons un·e Data Engineer spécialisé·e Informatica PowerCenter pour renforcer une équipe agile dynamique. Vous interviendrez sur la création et l’évolution de traitements data et d’applications, dans des environnements variés couvrant plusieurs domaines métiers (assurance IARD, santé, marché professionnel…). Vous participerez à l’ensemble du cycle de vie des projets : de la conception jusqu’à la maintenance en conditions opérationnelles. Vos missions : Rédiger les spécifications techniques détaillées Concevoir, développer et maintenir des traitements d’intégration de données Garantir la qualité, la performance, la sécurité et les délais de livraison Réaliser les tests unitaires et d’intégration Participer aux mises en production et aux déploiements Gérer les incidents et les demandes de changement Mener des analyses d’impact sur les pipelines de données existants Produire la documentation technique et réglementaire Environnement technique : Informatica PowerCenter 10.x, PowerExchange Navigator, SQL Server / SQL, Environnements Mainframe (apprécié), COBOL (lecture de copybooks), CI/CD, JIRA, Confluence
Mission freelance
Data ingénieur / Software ingénieur
SMH PARTICIPATION
Publiée le
Azure
Databricks
PySpark
1 an
100-350 €
Niort, Nouvelle-Aquitaine
Dans le cadre d’un projet Data à forte valeur ajoutée, nous recherchons un Data Engineer / Software Engineer orienté Data afin de renforcer une équipe agile SAFe. Le consultant interviendra sur la conception, le développement et l’industrialisation de pipelines Data et Machine Learning dans un environnement cloud Azure. Il participera à la transformation de solutions analytiques et prototypes Data Science en solutions robustes, scalables et industrialisées. Missions principales Data Engineering / Pipelines Data & ML Conception et développement de pipelines batch sur Azure Databricks Traitement et transformation de données avec PySpark Mise en place de workflows Data industrialisés Utilisation de Delta Lake pour la gestion des données Intégration de modèles ML en collaboration avec les Data Scientists 2. Industrialisation & performance Optimisation des performances Spark : partitionnement gestion mémoire optimisation des jobs Mise en place de mécanismes de : reprise sur erreur traçabilité des traitements monitoring des pipelines Software Engineering / Développement Développement de packages Python industrialisés Conception d’API (Azure Functions / Container Apps) Respect des standards de développement : tests unitaires qualité du code documentation CI/CD Contribution projet & Agile Participation aux phases projet : étude de faisabilité conception développement mise en production (MEP) Participation aux activités RUN et amélioration continue Contribution active aux cérémonies Agile SAFe
Offre d'emploi
Consultant(e) DATA OFFICER SENIOR (DATA GOVERNANCE / DATA MANAGEMENT / RGPD)
CELAD
Publiée le
Data governance
IA
RGPD
1 an
70k-90k €
600-700 €
Paris, France
1. CONTEXTE Au sein du Data Office rattaché à la Direction Data , vous intervenez dans un environnement structuré en tribus et squads sur des enjeux stratégiques liés à la gouvernance, la qualité et la protection des données . L’objectif est d’ industrialiser la gestion de la donnée dans la fabrication des cas d’usage (data, analytics, IA), tout en garantissant leur conformité réglementaire et leur performance business. Vous travaillez en étroite collaboration avec le Référent Data, les équipes métiers, IT, juridiques (DPO) ainsi que les différentes squads contributrices. 2. OBJECTIFS DU POSTE Structurer et déployer le cadre de gouvernance data à l’échelle de l’entreprise Garantir la qualité, la traçabilité et la protection des données critiques Accompagner les squads dans la mise en conformité RGPD et IA Act Assurer une vision transverse et pilotée des enjeux data (KPI, risques, qualité) Contribuer à la réussite des initiatives stratégiques data (Data Platform, projets IA, etc.) 3. MISSIONS PRINCIPALES3.1 Cadrage des initiatives data Accompagner les projets métiers et IT dans la phase de cadrage Identifier les données critiques (business / réglementaires) Définir les exigences en matière de : qualité des données gouvernance protection (RGPD, IA) 3.2 Gouvernance & Data Management Déployer et faire appliquer le framework de Data Governance Structurer les éléments suivants : Data catalog (Nectarine / AB Initio) dictionnaire de données glossaire métier data lineage Définir et suivre les rôles : Data Owners Data Stewards Garantir la cohérence du modèle data entre les différentes squads 3.3 Qualité des données Définir les règles de Data Quality (complétude, cohérence, unicité, etc.) Mettre en place les indicateurs de suivi Piloter les plans de remédiation avec les équipes IT et métiers Évaluer l’impact de la qualité des données sur la performance business 3.4 Data Protection & conformité Accompagner les équipes dans les analyses de risques RGPD (DPIA) Garantir le respect des principes de protection des données (privacy by design) Contribuer aux sujets liés à l’ IA Act Collaborer avec les équipes juridiques / DPO 3.5 Pilotage transverse & hypervision Mettre en place et suivre des KPI de gouvernance data Assurer une vision consolidée : des risques de la qualité de l’avancement des travaux Préparer et présenter les éléments dans les instances : comités de suivi comités data COMEX Produits 3.6 Accompagnement des équipes Former et accompagner les équipes : Data Stewards Data Designers équipes produit Diffuser les bonnes pratiques de gouvernance data Faciliter l’adoption des outils et processus 3.7 Contribution aux initiatives stratégiques Participation aux projets structurants (Data Platform, HALO…) Contribution aux ARM sur les volets data Support à la transformation data globale de l’entreprise
Mission freelance
INGENIEUR DATA BI - GENIO
PROPULSE IT
Publiée le
BI
24 mois
250-500 €
Paris, France
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Mission freelance
Consultant Senior Data Management / Data Quality
Inventiv IT
Publiée le
Collibra
Data governance
Data management
6 mois
550-700 €
Île-de-France, France
Dans le cadre d’un programme de transformation Data , nous recherchons un Consultant Senior Data Management / Data Quality pour structurer et industrialiser les pratiques de qualité des données. La mission vise à mettre en place un cadre global de Data Quality Management ainsi qu’une offre de services Data Quality , en interaction avec les équipes Data, IT et métiers. Missions principalesStructuration Data Quality Définir et déployer un framework Data Quality Management . Mettre en place les processus de gestion de la qualité des données . Formaliser la gouvernance Data Quality (rôles, RACI, comitologie) . Définir les dimensions de qualité et les règles associées. Pilotage & conduite de programme Piloter ou contribuer à des projets Data complexes et transverses . Animer des ateliers métiers et IT (élicitation, co-construction). Assurer l’alignement entre enjeux métiers, Data et IT . Contribuer à la structuration d’une offre de services Data Quality . Production & conduite du changement Produire les livrables structurants (templates, référentiels, bonnes pratiques). Concevoir des supports d’acculturation et de vulgarisation . Accompagner la conduite du changement et l’adoption des pratiques Data Quality. Contribuer à l’enrichissement des référentiels documentaires . Architecture & alignement technique Collaborer avec les équipes techniques sur la définition d’une architecture Data cible . S’inscrire dans un environnement basé sur une plateforme Data moderne (ex : Databricks) . Environnement technique Data Management & Data Governance Data Quality Management (DQM) Data Catalog : Collibra Plateformes Data : Databricks Méthodologies : Agile Outils documentaires / collaboratifs
Offre d'alternance
Ingénieur d'affaires / Business Manager en alternance (H/F)
Amiltone
Publiée le
Business
12 mois
20k-25k €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre de notre développement, nous recherchons un.e Ingénieur.e d'Affaires / Business Manager en alternance pour rejoindre notre agence de Lyon. À ce poste, vous jouez un rôle clé dans la croissance d'Amiltone en développant notre présence commerciale et en recrutant les meilleurs talents. Votre quotidien s'articule autour de deux missions principales : 🛠 Développement commercial - Créer, gérer et fidéliser un portefeuille client - Prospecter activement pour développer votre réseau et identifier de nouvelles opportunités - Promouvoir notre expertise et nos valeurs auprès des clients et partenaires - Assurer une écoute active des besoins clients et proposer des solutions adaptées - Commercialiser notre offre globale (Assistance technique, Forfait, Centre de service) - Piloter et suivre les référencements auprès des clients grands comptes 🎯 Recrutement & Talent Acquisition - Collaborer avec l'équipe recrutement pour identifier les meilleurs talents - Mener des entretiens et sélectionner les candidats en adéquation avec les besoins clients - Assurer le lien entre les consultants et les projets pour garantir une adéquation optimale
Mission freelance
Data Engineer - Niort
Signe +
Publiée le
Azure
CI/CD
Data Lake
6 mois
350 €
Niort, Nouvelle-Aquitaine
Je cherche un profil Data ingénieur / Software ingénieur orienté Data avec une expérience significative sur Azure Databricks, python (software engineering) et PySpark. La connaissance des concepts de Machine Learning, notamment des algorithmes de type bagging et boosting, constitue un atout apprécié. En tant que Data/Software ingénieur, le prestataire interviendra au sein d’une équipe agile SAFe et contribuera, au travers de user stories, aux activités suivantes : -Conception et développement des pipelines Data et ML industrialisées et robustes o Pipelines Batch sous Azure Databricks o Utilisation avancée de PySpark, Delta Lake, MLFlow, , Workflows o Optimisation des performances : partitionnement, gestion mémoire, exploitation GPU o Mise en place de mécanismes de reprise d’erreur, de traçabilité et de monitoring o Collaboration étroite avec les data scientists pour transformer les prototypes en solutions industrielles -Développement logiciel et services o Conception et développement de packages python o Respect des standards de développement du socle (qualité du code, tests unitaires, CI/CD, documentation, …) o API sous Azure Function et/ou Azure Container Apps -Contribution aux phases projets (étude de faisabilité, architecture, conception, réalisation, MEP) et aux différents activités de RUN et d’amélioration continue -Participation active aux rituels agiles
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6419 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois