Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 780 résultats.
Freelance
CDI

Offre d'emploi
Chef de Programme Data & IA – Product Owner Socle Data & IA

VISIAN
Publiée le
Azure
Azure Data Factory
Data quality

1 an
40k-45k €
400-610 €
Île-de-France, France
Contexte de la mission Dans le cadre de la modernisation d’un socle Data & IA et de la mise en place d’un modèle de décentralisation gouvernée, le Chef de Programme Data & IA intervient en tant que référent transverse sur la plateforme Data & IA. Il est garant de la cohérence entre les enjeux de modernisation technique, d’adoption métier et de gouvernance de la donnée, dans un environnement Data Platform à forte ambition IA. Missions principales 1. Pilotage du programme Data & IA Définir et piloter la roadmap du socle Data & IA Prioriser les initiatives métiers et techniques Participer aux arbitrages d’investissements et au séquencement des chantiers Assurer la cohérence avec le modèle de décentralisation et la stratégie IA 2. Rôle de Product Owner plateforme Recueillir et prioriser les besoins des utilisateurs (métiers, équipes Data & IA, etc.) Piloter le backlog de la plateforme Structurer les releases et le capacity planning Suivre les KPIs de performance (qualité, adoption, stabilité, time-to-market) 3. Chantiers structurants Migration vers une architecture Data Lakehouse (type Databricks / Unity Catalog) Mise en place de la Data Quality industrialisée Déploiement de la Data Observability end-to-end Modernisation de l’offre de service de la plateforme Data 4. Coordination Data & IA Assurer l’interopérabilité entre Data, ML et IA générative Structurer la collaboration entre équipes DataOps et MLOps Préparer la plateforme aux usages IA avancés (exposition Data Products, APIs, etc.) 5. Animation et structuration Clarifier les rôles et responsabilités (RACI) Améliorer les pratiques agiles et les rituels de pilotage Accompagner la montée en maturité des équipes
Freelance
CDI
CDD

Offre d'emploi
Expert Infrastructure Windows Senior – Lyon

RIDCHA DATA
Publiée le
Active Directory
Ansible
Internet Information Services (IIS)

1 an
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre de la construction et de l’exploitation d’infrastructures Microsoft, nous recherchons un Expert Windows Senior pour intervenir sur des environnements complexes en Active Directory , avec un fort focus sur l’automatisation , le support niveau 3 et l’optimisation des infrastructures existantes. Vos missions Concevoir et déployer des infrastructures Windows Server robustes et sécurisées Assurer le support niveau 3 et la résolution d’incidents complexes Automatiser les tâches d’exploitation via PowerShell et Ansible Administrer et maintenir le parc informatique via SCCM Gérer et administrer les environnements Active Directory Intervenir sur les serveurs d’applications et infrastructures associées Documenter les procédures et participer à la montée en compétences des équipes Compétences techniques requises Expertise avancée sur Windows Server Solide maîtrise de Active Directory / Microsoft AD Très bonne expérience en administration SCCM Bonne maîtrise de : RDS Server SQL Server IIS Expertise en PowerShell Maîtrise confirmée de Ansible Connaissances en OpenStack / Virtualisation fortement appréciées
CDI

Offre d'emploi
Business Analyst Data F/H - Marketing (H/F)

█ █ █ █ █ █ █
Publiée le
Scrum
SQL

Cesson-Sévigné, Bretagne

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Quality Data/Lead Data Referentiel

Cherry Pick
Publiée le
Finance
IA
Numpy

12 mois
Paris, France
PRÉSENTATION DE LA MISSION Dans le cadre d'un programme de transformation de la qualité des données de marché, vous rejoignez l'équipe DIR (Direction du Référentiel) . Votre rôle est de concevoir, déployer et industrialiser un cadre de contrôle rigoureux pour les actifs financiers (Futures, Yields, FX, Index, Bonds) afin de garantir la fiabilité des modèles de recherche et des décisions de trading. Type de contrat : Freelance Durée : 6 mois Localisation : Paris Environnement technique : Python (Data Stack), SQL, Bloomberg/Reuters API, LLM/IA. 2. MISSIONS ET RESPONSABILITÉS Axe 1 : Audit et Diagnostic (Phase d'Évaluation) Réaliser un audit complet des dimensions de qualité par classe d'actifs. Recenser l'existant (scripts épars, contrôles manuels) et identifier les zones de risque (gaps de couverture). Prioriser le backlog des anomalies historiques en collaboration avec les équipes Recherche et Prédiction. Axe 2 : Industrialisation de la Qualité (Mise en œuvre) Développer une bibliothèque unifiée et modulaire de contrôles (en Python) intégrable aux pipelines de données. Assurer la remédiation du stock historique : investigation des causes racines, correction des données et résolution des litiges avec les fournisseurs (Bloomberg, etc.). Mettre en place des mécanismes de prévention pour bloquer les anomalies dès l'ingestion. Axe 3 : Monitoring et Innovation Concevoir des dashboards de pilotage (KPI) pour monitorer la santé des données en temps réel. Développer un PoC basé sur les LLM pour automatiser la génération de nouveaux contrôles et faciliter l'analyse des causes racines (Root Cause Analysis). Rédiger le Playbook opérationnel (procédures de gestion d'incidents et workflows d'alerte).
Freelance
CDI

Offre d'emploi
Offre de mission Data Governance Manager – Stewardship & Adoption sur Bordeaux

EterniTech
Publiée le
Data governance
Microsoft Power BI
Snowflake

5 mois
Bordeaux, Nouvelle-Aquitaine
Je cherche pour un de mes clients Data Governance Manager – Stewardship & Adoption Description du besoin : Poste : Data Governance Manager – Stewardship & Adoption Expérience : mini 5 ans en Data Gouvernance Partenaires et Freelances Quelques mots sur le contexte de la mission et l’équipe Chez le client, le besoin s’inscrit dans le développement de la gouvernance data, dans un environnement structuré autour de Snowflake, Power BI et Datahub. La mission se déroule au sein de l’équipe Data Management composée de 4 Data Managers, qui outillent la gouvernance Data des entités du groupe et participent aux projets métiers en collaboration avec les Data Engineers et notre communauté de Data Owner. Enjeux du projet / périmètre La mission vise à structurer, déployer et animer la gouvernance opérationnelle autour d’une communauté de Data Stewards à créer, à renforcer l’adoption des outils et pratiques de gouvernance, et à rapprocher l’équipe Data Management des utilisateurs afin de mieux prioriser les besoins métiers et data. Le poste n’a pas vocation à être un rôle de Data Steward central ; il s’agit d’un rôle transverse, orienté cadre, adoption, animation de communauté et accompagnement du changement. Activités principales • Déployer et animer le modèle de Data Stewardship : clarification des rôles, périmètres, interactions et rituels entre Data Owners, Data Stewards, Data Management et équipes techniques. • Structurer l’onboarding des Data Stewards et produire les kits, standards et supports utiles. • Lancer et animer la future communauté de Data Stewards. • Renforcer l’adoption du Data Catalog et des pratiques de gouvernance. • Accélérer la documentation des assets prioritaires • Intégrer davantage la gouvernance dans les workflows projets. • Contribuer à l’extension de la couverture du catalogue, notamment sur les traitements IA. • Organiser des ateliers et temps d’échange avec les utilisateurs. • Faire émerger les irritants et besoins, structurer un backlog transverse et contribuer à sa priorisation avec les équipes concernées. • Contribuer à une gouvernance by design sur les projets data, dès les phases de cadrage. Activités secondaires • Réactiver et mobiliser les communautés existantes, en particulier les référents Power BI. • Animer des campagnes ciblées et des rituels simples mais réguliers autour des usages de gouvernance. • Accompagner l’appropriation des rôles de Data Steward par certaines communautés existantes. Contexte technique et organisationnel Environnement data structuré autour de 4 plateformes Snowflake, une par entité du groupe, Power BI et Datahub. Mission portée par l’équipe Data Management, en interaction avec des Product Managers, Data Analysts, Data Scientists, Data Engineers, équipes plateforme et sponsors métier. Utilisation framework scrumban Contraintes techniques Bonne compréhension attendue des enjeux liés aux catalogues de données, aux métadonnées, à la documentation, à l’ownership, aux accès et aux usages. Maitrise de Snowflake et Power BI ou outils similaires Soft skills souhaitées • Forte capacité d’animation de communauté • Facilitation • Conduite du changement • Capacité à faire avancer un sujet transverse sans autorité hiérarchique • Approche structurée, pragmatique, orientée impact et adoption • Capacité à dialoguer avec des interlocuteurs variés Expérience minimale requise Profil disposant d’une expérience solide en Data Governance, Data Management, Data Transformation ou Data Program Management. Outils de collaboration attendus Teams, Jira, Confluence, Datahub • TT les mercredis et vendredis (Possibilité de venir sur site si volonté). Critères de sélection Les éléments différenciants pouvant être mis en avant dans la candidature, d’après ton draft, sont : • expérience concrète de déploiement de modèles de gouvernance, de rôles ou de réseaux de référents ; • capacité à structurer et animer une communauté de Data Stewards ; • capacité à embarquer des parties prenantes variées et à conduire le changement ; • bonne compréhension des enjeux de Data Catalog, métadonnées, documentation, ownership, accès et usages ; • capacité à faire émerger les besoins utilisateurs et à contribuer à leur priorisation ; • approche pragmatique et orientée adoption / impact. Détail des compétences techniques Connaissance de Power BI : junior (<2 ans) Snowflake : junior (<2 ans d'exp) Data Governance : expert (>5 ans d'exp) Data Stewardship Operating Model : confirmé (2 à 5 ans d'exp) Data Catalog / Metadata Management : confirmé (2 à 5 ans d'exp) Conduite du changement / adoption : expert (>5ans) Animation de communauté / réseau de référents : confirmé (2 à 5 ans d'exp) Datahub ou autre Data Catalog : junior (< 2 ans) Gestion backlog transverse / priorisation : confirmé (2 à 5 ans d'exp)
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

35k-42k €
Strasbourg, Grand Est
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Strasbourg - Expérience de 2 ans minimum Vous aimez transformer les données en décisions concrètes ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, intervenant dans le secteur bancaire. Contexte : Vous interviendrez directement sur des projets d’intégration et d’exploitation de données, contribuant à rendre l’information accessible et exploitable pour les équipes métier. Voici un aperçu détaillé de vos missions : - Concevoir et maintenir des processus d’intégration de données (ETL / ELT), idéalement avec Semarchy xDI (anciennement Stambia) - Participer à la modélisation de systèmes décisionnels et à l’organisation des données - Manipuler et optimiser les bases de données avec le SQL - Collaborer avec les équipes BI sur des outils comme SAP/BO Situation géographique : Strasbourg (67)
Freelance
CDI

Offre d'emploi
Data Hub - Data Engineer

Digistrat consulting
Publiée le
IntelliJ IDEA
Python
SQL

3 ans
40k-70k €
450-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : 💡Objectif global : Participation à différents projets de migration vers la nouvelle plateforme 💡Description détaillée Le contexte de la mission : Participation à différents projets de migration vers la nouvelle plateforme. Participation aux nouveaux projets BI. Contribution aux développements de workflows en python au sein de l'équipe DataHub Core Platform. 💡Responsabilités principales : · La mission consiste à : Participation au projet DQF (Data Quality Framework) Développement des modules python communs qui seront utiles à tous les projets Participation au projet Data Lineage
CDI

Offre d'emploi
Consultant en gouvernance data - SI assurance H/F

VIVERIS
Publiée le

45k-55k €
France
Contexte de la mission : Viveris vous propose un poste de Consultant SI Data, avec une expérience confirmée dans le pilotage de projets transverses sur DataGalaxy ainsi que sur les aspects réglementaires. Dans le cadre d'un projet de gouvernance des données, notre client, acteur du secteur assurantiel, déploie progressivement la solution auprès des différentes équipes métiers et IT. En tant qu'expert DataGalaxy, vous accompagnez les équipes à chaque étape du déploiement et garantissez l'appropriation de la solution ainsi que la mise en oeuvre des premiers cas d'usage. Responsabilités : Piloter le déploiement de DataGalaxy dans le respect de la gouvernance et du planning ; Accompagner et former les équipes métier et IT à un usage avancé de la solution ;Concevoir et implémenter des cas d'usage structurants au sein du Data Catalog ; Paramétrer et optimiser l'intégration de DataGalaxy dans l'écosystème data ; Apporter une expertise en gouvernance des données et diffuser les bonnes pratiques.
CDI

Offre d'emploi
Ingénieur Système et Réseau H/F

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le

50k-50 001 €
Gramat, Occitanie
Nous vous invitons à relever de nouveaux challenges et à évoluer sur des projets d'expertise et d'innovation en prenant part à l'aventure Econocom. A travers sa marque Workplace Infra Innovation, le groupe Econocom s'affirme comme la première entreprise du digital en Europe, la 7ème ESN de France et le leader de l'infogérance Workplace depuis 4 années. Au sein de l'activité Services en région Occitanie, nous accompagnons plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Ce qui vous attend : Au sein d'un grand groupe industriel, vous intégrez une prestation d'infogérance workplace et infrastructure et vous intervenez sur la partie système et réseau, au sein d'une équipe d'Administrateurs/Ingénieurs, dans le cadre d'un projet de grande envergure de mise en place d'hébergement de données. Vous aurez également une casquette de Service Delivery Manager et serait garant de la qualité du delivery, de la rentabilité et de la tenue des indicateurs sur votre périmètre. Vos responsabilités : • Participer au suivi de la partie système et réseau • Diagnostiquer les pannes et les dysfonctionnements liés au hardware, aux solutions cloud ou aux logiciels • Assurer le MCO/MCS • Assurer le pilotage du contrat : respect des engagements contractuels, veiller à la satisfaction client, comitologies. • Assurer le pilotage d'une équipe d'une 12ene de collaborateurs (gestion des congés, entretiens de suivi etc.) positionnés sur la gestion des postes de travail et sur les infrastructures • Coordonner les équipes opérationnelles dans le cadre de petits projets transverses • Rédiger des propositions de changements • Assurer une veille technologique pour garantir l'optimisation des ressources systèmes de l'entreprise Des astreintes sont à prévoir (une semaine par mois en moyenne). L'environnement technique : Windows 10-11, Linux Ce que nous vous proposons : Valeurs : en plus de nos 3 fondamentaux que sont l'audace, la bonne foi et la réactivité, nous garantissons un management à l'écoute et de proximité, ainsi qu'une ambiance familiale. Contrat : En CDI ou CDD. Nous sommes ouverts à des profils soit habitant proche de Gramat soit habitant sur Toulouse et ouvert aux déplacements. Dans ce dernier cas, la personne resterait du lundi au vendredi sur Gramat et pourrait repartir sur Toulouse le week-end. Référence de l'offre : i7y68prjwg
CDI
Freelance

Offre d'emploi
Consultant AMOA DATA / IA H/F

Le Groupe SYD
Publiée le
AMOA
Data science
Intelligence artificielle

12 mois
40k-50k €
375-475 €
Nantes, Pays de la Loire
🌟 Dans le cadre de notre développement, nous recherchons pour l’un de nos clients à Nantes (44), deux Consultant AMOA Data/IA H/F . Démarrage : ASAP Lieu : Nantes (44) Télétravail : 2 jours/semaine (non-négo) 👉 Dans le cadre de sa transformation numérique, notre client recherche deux Consultant(e)s AMOA Data/IA . À ce titre, vos missions seront : Identifier et cadrer les opportunités de projets IA à forte valeur Acculturer et former les équipes métiers aux enjeux de l’IA Accompagner le développement et le déploiement des solutions IA Identifier et lever les freins à l’adoption des outils IA Renforcer la collaboration entre les équipes métiers et les équipes IT IA
Freelance

Mission freelance
Data Ingénieur H/F

Insitoo Freelances
Publiée le
ETL (Extract-transform-load)
HFSQL
JIRA

2 ans
380-511 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Ingénieur H/F à Hauts-de-France, France. Contexte : L’équipe Data Engineering recherche un développeur flux Stambia / Semarchy xDI confirmé pour renforcer ses capacités de conception et d’industrialisation de flux de données. Cette équipe intervient dans un environnement fonctionnel riche couvrant plusieurs domaines stratégiques (supply, commerce, customer, etc.). L’activité se concentre exclusivement sur des échanges de données opérationnels, hors périmètre décisionnel. Vous évoluerez dans une équipe expérimentée, sur des enjeux variés de BUILD (conception, création, évolutions) et de RUN (exploitation, optimisation, astreinte). Les missions attendues par le Data Ingénieur H/F : La mission se structure de la manière suivante : ● Analyse des besoins : ○ Comprendre les besoins en matière d'intégration de données en collaborant avec le Product Owner et les parties prenantes. ● Conception : ○ Concevoir des flux complexes en utilisant l’outil Stambia / Semarchy xDI. ○ Capacité à modéliser une base de données. ● Développement : ○ Développer les flux en appliquant les meilleures pratiques de développement. ○ Produire des scripts (Python, Beanshell, Shell...) pour enrichir ou personnaliser des traitements spécifiques. ○ S’appuyer sur Git pour faciliter la collaboration entre développeurs. ● Tests : ○ Tester ses développements (performance, robustesse, non-régression...) pour garantir qualité et fiabilité. ● Documentation : ○ Documenter et partager les connaissances. ○ Réaliser des spécifications techniques. ● Maintenance : ○ Assurer la maintenance (suivi de production, monitoring, support, astreinte) des flux de données et les mises à jour en cas de besoin.
Freelance

Mission freelance
Data Steward H/F

Insitoo Freelances
Publiée le
JIRA
Microsoft Excel

2 ans
200-402 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Steward H/F à Hauts-de-France, France. Contexte : Garantir la structuration, la fiabilité et la performance des données produits intégrées au configurateur, afin d’assurer une expérience digitale cohérente, performante et adaptée aux besoins des marchés, des clients et des collaborateurs en magasins. Les missions attendues par le Data Steward H/F : 1. Structuration et gouvernance des données produits ● Collecter, analyser et structurer les données des produits configurables en lien avec les fournisseurs et le marché. ● Assurer l’intégration et la mise à jour des données produits et tarifaires (prix, options, évolutions de gamme), en garantissant leur fiabilité, leur cohérence et leur conformité aux règles métier. ● Être garant(e) de la qualité, de la cohérence et de la pérennité des référentiels data du configurateur. ● Définir et maintenir les règles de compatibilité et de cohérence entre produits. ● Modéliser et unifier les données multi-fournisseurs afin d’assurer leur intégration dans le configurateur. ● Identifier les attributs produits nécessaires à l’animation des parcours digitaux et coordonner leur complétude avec les parties prenantes (PILCO, marchés, fournisseurs…). ● Documenter les règles métier et référentiels afin d’assurer leur lisibilité, compréhension et transmission. 2. Pilotage du peuplement et performance produit ● Être responsable du peuplement des produits au sein du configurateur. ● Définir et suivre les indicateurs clés de performance (KPI) liés aux produits et aux parcours. ● Réaliser les analyses de performance et identifier les axes d’optimisation. ● Proposer et formaliser des plans d’action en lien avec les marchés. ● Contribuer à l’amélioration continue de l’offre et de l’expérience sur le configurateur.
Freelance

Mission freelance
Data Scientist

Codezys
Publiée le
Machine Learning
Python
Pytorch

12 mois
340-430 €
Lille, Hauts-de-France
Contexte de la mission Au sein de l’équipe Recommandation, le candidat retenu jouera un rôle clé dans l’exploration et la mise en œuvre de nouveaux algorithmes visant à enrichir nos systèmes de recommandation, essentiels au bon fonctionnement de notre site. La mission consiste à concevoir, prototyper et valider des solutions innovantes reposant sur l’intelligence artificielle (IA) et l’apprentissage automatique (ML), afin d’améliorer l’expérience utilisateur et de répondre aux enjeux métier liés à la personnalisation. Vos missions principales seront les suivantes : Veille et innovation autour des systèmes de recommandation : Suivre activement les dernières avancées en IA et ML (Deep Learning, apprentissage par renforcement, etc.). Identifier et évaluer les technologies en lien avec les cas d’usage, notamment en lien avec les Large Language Models (LLM) et l’IA générative, pour définir leur pertinence et leur potentiel d’intégration. Développement et expérimentation : Concevoir, réaliser et tester des Proof of Concept (PoC) et des Minimum Viable Products (MVP) performants et sécurisés, afin de valider la faisabilité technique des solutions envisagées. Cette étape inclut une approche itérative pour maximiser l’efficacité des prototypes. Analyse de données et modélisation : Explorer des jeux de données complexes pour identifier des patterns, insights et opportunités d’amélioration. Concevoir, entraîner et affiner des modèles d’IA adaptés aux cas d’usage métiers, afin d’optimiser la pertinence des recommandations générées. Travail en équipe et partage des connaissances : Collaborer étroitement avec les équipes métiers, les Product Owners et les équipes transverses (notamment AAAI). Comprendre leurs besoins, échanger sur les avancées techniques, et assurer une documentation claire et précise des choix et des résultats obtenus. Intégration et amélioration continue : Travailler avec l’équipe AI Capabilities pour l’intégration et le déploiement des solutions IA sur les plateformes existantes (ML Solution, GenAI Solution). Contribuer à l’évolution des systèmes en intégrant les retours d’expérience et en adaptant les modèles en continu pour garantir leur performance et leur adaptéibilité. Ce poste nécessite une forte capacité d’auto-apprentissage, un esprit d’innovation, ainsi qu’une aptitude à travailler en équipe dans un environnement dynamique et technologique en constante évolution.
CDI

Offre d'emploi
Responsable Data - Assurances H/F

VIVERIS
Publiée le

55k-60k €
Crédit Agricole du Languedoc, Occitanie
Contexte de la mission : Viveris accompagne ses clients dans la conception et la maintenance des solutions décisionnelles. Dans ce cadre, nous recherchons un Responsable Data pour accompagner notre client dans le domaine des assurances. Il pilote son service Data en charge de garantir la qualité, la sécurité et la valorisation des données. Vous êtes intégré dans un Direction des Systèmes d'Informations (DSI) et directement rattaché au Directeur des Systèmes d'Information. Responsabilités : - Structurer, organiser et piloter le service Data pour répondre aux enjeux de l'organisation ; - Définir et suivre les indicateurs de performance et de qualité de service (SLA) afin de garantir un pilotage fiable et transparent ; - Suivre les budgets liés au décisionnel et optimiser les coûts associés (licences, outils, prestations) tout en recherchant un équilibre pertinent entre qualité et maîtrise des dépenses ; - Définir et déployer la stratégie de gouvernance des données, en veillant à la qualité, l'intégrité, la conformité et la sécurité des informations gérées ; - Piloter la gestion des référentiels, des règles de gestion, du dictionnaire de données et des habilitations pour assurer une utilisation cohérente et maîtrisée de la donnée ; - Définir et piloter la feuille de route de modernisation du Système d'Information Décisionnel (SID), intégrant les évolutions technologiques, les nouveaux outils et les bonnes pratiques méthodologiques ;
Freelance
CDI
CDD

Offre d'emploi
DATA ENGINEER

VADEMI
Publiée le
Apache Spark
Azure
Databricks

1 an
Châtillon, Île-de-France
Nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark et SQL. · Analyse des traitements existants dans le cadre de projets de migration · Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake · Développement de notebooks Databricks pour des traitements avancés de données · Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) · Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) · Réalisation de revues de code dans une logique de qualité et de bonnes pratiques · Conception et exécution de tests unitaires · Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés 3 - Compétences techniques requises · Expérience Data minimum 5 ans · Azure minimum 3 ans · Databricks minimum 5 ans · Spark minimum 5 ans · Python minimum 5 ans · SQL minimum 5 ans · Maitrise de CI/CD, Azure DevOps minimum 3 ans · Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an
CDI

Offre d'emploi
Développeur Python/ Data & IA H/F

CELAD
Publiée le

40k-48k €
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Développeur Python/ Data & IA H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez sur un projet innovant autour de la conception et de la validation d’un modèle de données complexe dédié à l’analyse d’impacts environnementaux. Dans ce cadre, vous travaillez sur un écosystème logiciel en Python structuré autour d’un méta-modèle de données, avec des enjeux forts de qualité, de cohérence et de validation scientifique. Votre rôle consiste à tester, analyser et faire évoluer ce modèle ainsi que les chaînes d’import de données, dans un environnement collaboratif intégrant des outils d’intelligence artificielle. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Analyser et comprendre un modèle de données existant et ses mécanismes - Tester de manière critique les chaînes d’import de données (YAML, Excel) - Développer et améliorer des fonctionnalités en Python - Mettre en place et exécuter des tests automatisés (pytest) - Utiliser des outils d’assistance au développement par IA (Copilot, Cursor…) - Documenter les résultats, anomalies et axes d’amélioration
5780 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous