Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 640 résultats.
CDI
Freelance

Offre d'emploi
Pilote SI

Le Groupe SYD
Publiée le

12 mois
35k-55k €
350-550 €
Le Mans, Pays de la Loire
🌟 Quel sera votre poste ? 🌟 📍Lieu : Le Mans (72) ⌚ Temps plein 🏠 Télétravail : 2 jours par semaine 👉 Contexte client : Dans le cadre de notre développement, nous recherchons un(e) Pilote SI H/F afin d’accompagner un de nos clients grand compte dans la gestion et l’optimisation de son système d’information. Vos responsabilités principales sont : Piloter et superviser les projets liés aux systèmes d’information en respectant les bonnes pratiques ITIL. Assurer la coordination entre les équipes techniques, métiers et la direction pour garantir l’alignement des solutions IT avec les besoins opérationnels. Participer à la définition des orientations stratégiques du SI en collaboration avec les parties prenantes. Garantir la sécurité et la disponibilité des systèmes, notamment en supervisant les sauvegardes de données et en appliquant les politiques de cybersécurité. Analyser les risques IT et proposer des solutions pour améliorer la résilience des infrastructures. Rédiger et mettre à jour les documentations techniques et fonctionnelles (procédures, processus, etc.). Assurer le suivi des indicateurs de performance et proposer des axes d’amélioration continue.
Freelance
CDI

Offre d'emploi
Développeur Big Data sur Lyon

EterniTech
Publiée le
Cloudera
Hadoop
SQL

3 ans
Lyon, Auvergne-Rhône-Alpes
Je recherche pour un de mes client un Développeur Big Data sur Lyon CONTEXTE DE LA MISSION Le client, dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs. DESCRIPTION DE LA MISSION Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gouvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. LIVRABLES ATTENDUS ET ENVIRONNEMENT TECHNIQUE Les principales missions confiées seront les suivantes : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs - Capacité à expliquer simplement le sujet, à communiquer vers des interlocuteurs type développeur, bureau d'étude, qualifieur et "clients" (Groupes de protection sociale). La connaissance de Power BI et SAS sont des plus. Exemples de livrables attendus : - Code source documenté - Plan de tests / fiches de test - Bilan - Bordereau de livraison - Manuel d’installation - Dossier d’exploitation - JIRA documentée Environnement technique : - Hadoopa Cloudera - Hive - Impala - Python - Shell - Spark - Linux - SQL - VBA - Git - Jupyter Des connaissances de l’écosystème de la protection sociale sont les bienvenues (retraite complémentaire idéalement).
Freelance

Mission freelance
Data Scientist – Deep Learning / NLP

ESENCA
Publiée le
Google Cloud Platform (GCP)
Machine Learning
Python

1 an
400-500 €
Lille, Hauts-de-France
Contexte Dans le cadre du renforcement de ses équipes Data, notre client recherche un Data Scientist senior spécialisé en Deep Learning et NLP , avec une expérience significative dans le secteur retail . Mission longue durée : 12 mois renouvelables . Missions Concevoir, développer et optimiser des modèles de Deep Learning (PyTorch) appliqués à des cas d’usage retail Travailler sur des problématiques avancées de : Learning to Rank (LTR) Ranking / systèmes de recommandation Génération d’embeddings Fine-tuner et adapter des modèles existants : LLM (Large Language Models) autres modèles NLP Explorer, analyser et valoriser des données complexes pour améliorer la performance des modèles Réaliser des PoC / MVP pour valider les approches techniques Participer à l’industrialisation et à l’amélioration continue des modèles Collaborer avec les équipes métiers et techniques (Data, Produit, IT) Environnement technique Python (expert) Machine Learning / Deep Learning PyTorch NLP / LLM Google Cloud Platform (GCP) Soft skills Esprit analytique et orienté résultats Capacité à travailler en équipe transverse Autonomie et capacité à proposer des solutions Bonne communication
CDI
Freelance

Offre d'emploi
Techlead Data Engineer | AWS | Databricks | Big Data

Hexateam
Publiée le
AWS Cloud
Databricks
Python

36 mois
Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
CDI

Offre d'emploi
Support Logistique Déploiement SI

Les Filles et les Garçons de la Tech
Publiée le
Hardware
Réseaux
Switch Cisco

1 an
34k-41k €
240-550 €
Ollioules, Provence-Alpes-Côte d'Azur
NATIONALITE FRANCAISE OBLIGATOIRE 1) Support Déploiement en Sites Externes Soutien logistique sur le déploiement de l’entreprise étendue Plus en détail : Préparation des postes de travails pour les sites externes Suivi des stocks associés Préparation/Réception colis Recueil des besoins Synchro avec nos services IT Maintient des tableaux de bords associés Décommissionnement des postes 2) Support Déploiement sur sites client Soutien logistique sur le déploiement à l’échelle sur site Plus en détail : Déploiement/Installation des switchs Seanergy Suivi des stocks associés Recueil des besoins Synchro avec nos services IT Synchro avec les services métiers Maintien des tableaux de bords associés Décommissionnement des switchs
Freelance
CDI

Offre d'emploi
Architecte Fonctionnel (H/F)

Aleysia
Publiée le
Architecture
Azure DevOps

12 mois
Puteaux, Île-de-France
Si comprendre les enjeux métier, structurer la data et concevoir des solutions à forte valeur ajoutée est pour toi une passion plus qu'une compétence, rejoins notre univers technique qui t'attend de pied ferme avec ce poste d’ Architecte Fonctionnel Data / AMOA ! 🚀 Ton challenge si tu l’acceptes : Accompagner les métiers et la MOA dans le cadrage et la définition des besoins data Concevoir des solutions technico-fonctionnelles adaptées aux enjeux du SI décisionnel Réaliser la modélisation de données et garantir la cohérence globale Collaborer avec les équipes data, IT et urbanistes pour construire des solutions robustes Participer aux phases de recette et à la stratégie de tests Suivre l’avancement des projets (planning, budget, risques) Contribuer à l’amélioration continue des processus et des usages data
Freelance

Mission freelance
Consultant – Data Monetization & Snowflake Pricing Strategy

Mon Consultant Indépendant
Publiée le
Data analysis
IA

1 mois
1 050-1 090 €
Courbevoie, Île-de-France
Consultant – Data Monetization & Snowflake Pricing Strategy Mission freelance Contexte : Un éditeur logiciel développe une offre de data sharing permettant à ses clients d’accéder à des données en temps réel via une plateforme data basée sur Snowflake. Dans ce contexte, l’entreprise souhaite structurer le modèle économique de cette offre, en définissant un modèle de pricing cohérent entre : · Les coûts d’infrastructure Snowflake · L’usage réel des données · La valeur business apportée aux clients La mission vise à définir une stratégie de monétisation durable pour l’accès et l’exploitation de ces données. Objectifs de la mission : Le consultant interviendra pour : · Analyser les coûts techniques liés à l’usage de Snowflake · Comprendre les patterns d’usage des données par les clients · Définir un modèle de pricing pour l’accès et l’exploitation des datasets · Identifier les scénarios de monétisation possibles (data sharing, analytics, IA, etc.) L’objectif est de concevoir un modèle économique équilibré entre coût d’infrastructure, valeur client et potentiel de croissance commerciale. Travaux attendus : Le consultant devra notamment : · Analyser le modèle de pricing Snowflake (compute, storage, data sharing) · Modéliser différents scénarios de consommation de data · Définir plusieurs modèles de pricing possibles · Évaluer l’impact économique selon différents niveaux d’usage · Recommander une stratégie de monétisation de la data Exemples de modèles étudiés : · Pricing basé sur l’usage · Packages de données · Accès premium à certaines données · Pricing lié aux capacités analytiques ou IA Profil recherché : Nous recherchons un consultant ayant déjà travaillé sur des problématiques de monétisation de la data dans des environnements SaaS ou data platform. Expériences pertinentes : · Définition de modèles de data monetization · Stratégie de data sharing · Pricing de produits data ou analytics · Plateformes Snowflake / Databricks / data cloud Compétences attendues : · Compréhension des architectures data platform · Connaissance du modèle économique Snowflake · Expérience en usage-based pricing · Capacité à modéliser des scénarios économiques · Capacité à traduire les coûts techniques en modèles commerciaux Profil type : Le consultant peut venir de : · Conseil en stratégie data · Éditeur SaaS utilisant Snowflake · Plateforme data / analytics · Equipes data product ou data monetization
Freelance
CDI

Offre d'emploi
Data Analyst Sénior Montpellier

Deodis
Publiée le
Data analysis

36 mois
51k-57k €
420-520 €
Montpellier, Occitanie
Mission à Montpellier, télétravail 2 jours / semaine Taches principales - activités BI Collaborer étroitement avec les Business Analystes afin d’identifier les besoins Data du métier grâce à des ateliers d’affinage Collecter et exploiter les données pour les restituer sous forme d’indicateurs ou de Tableaux de bord, et ainsi contribuer et conduire les analyses Data mises en lien avec les problématiques métiers Présenter les résultats aux équipes métiers Véhiculer auprès des métiers le cadre de gouvernance Data (Data Management, Data Privacy…) de l’entreprise, en portant les messages et expertises autour du Digital Contribuer à l’évolution des pratiques du Chapitre dans une logique d’amélioration continue 🎯 Evolutions des activités en temps 2 – activités data digital (tracking et data analyse associée) : Identifier, avec les Squads métiers, les besoins de tracking dans des ateliers d’affinage Réaliser les spécifications et recettes du tracking Collecter et extraire les données nécessaires à l’analyse Construire des tableaux de bord Restituer le plan de marquage déployé dans un livrable au format prédéfini pour les caisses régionales. Présenter le rendu aux squads métiers Contexte Intervention pour le compte du Chapitre Data à Montpellier : Le Chapitre Data intervient en transverse au sein de l'entreprise. Il recueille et fabrique les cas d'usages Data des différentes Squads de l'entreprise, sur des domaines métiers différents. Vous serez ainsi amené à travailler pour le compte de différentes Squads avec des interlocuteurs possiblement changeants. Vous serez également amené à échanger avec les autres membres du Chapitre du site de Montpellier mais aussi ceux des autres sites France. Attendu En tant qu’intervenant externe sur le poste de data analyst, vous interviendrez spécifiquement sur : • Fabrication de Tableaux de Bord via Microstrategy (sur des activités BI) • Calcul d’indicateurs via script SQL sur environnement Teradata (sur des activités BI) et intégration dans des pipelines de restitution normées ⚠️ Soft skills indispensables du fait du positionnement Chapitre : Autonome, Adaptable, Bonne communication / Pédagogue, Sait challenger les besoins / Prise de Lead Il sera également demandé à l’intervenant/e externe d'intervenir sur les activités Digital en lien avec la Données pour garantir la réussite du Pilotage des Parcours web : • Mise en œuvre du Tracking sur les parcours utilisateurs et Fabrication de Tableaux de Bord pour restituer les données aux métier (sur des activités Parcours Digitaux) - Logiciel et solutions analytiques : Tag Commander, Piano Analytics, Cosmo Survey • Conduite des analyses marketing sur la base du tracking déployé et force de proposition sur les possibles optimisations lors de ces analyses.
Freelance

Mission freelance
Product Owner MS Dynamics / Azure - Montpellier

ARGANA CONSULTING CORP LLP
Publiée le
Agile Scrum
Azure
Azure Data Factory

12 mois
580-620 €
Montpellier, Occitanie
Missions principales Construire, prioriser et piloter le backlog de l’équipe en collaboration avec les équipes métier et les architectes. Travailler avec l’équipe à la conception des solutions intégrant le CRM Dynamics , la Power Platform , et la plateforme Azure (SSIS sur VM, Synapse Link for Dataverse, Azure Functions…). Se synchroniser avec les autres équipes du train relation client pour identifier et gérer les dépendances avec les autres applications de la ligne produit. Participer activement aux cérémonies Scrum et au suivi des indicateurs de performance des projets. Contribuer à l’ innovation et à l’amélioration continue des solutions CRM et Azure. Environnement technique Dynamics 365 Power Automate Power Apps Développement de plugins C# Customisations JavaScript SSIS Azure Functions Azure Synapse Link for Dataverse Azure DevOps SonarCube
Offre premium
Freelance
CDI
CDD

Offre d'emploi
Testeur Fonctionnel

FIRST CONSEIL
Publiée le
API
Confluence
JIRA

6 mois
25k-35k €
300-400 €
Île-de-France, France
En tant que testeur fonctionnel au sein de la Digital Factory, vous serez garant(e) de la qualité, de la fiabilité et de la performance de nos plateformes digitales utilisées au quotidien par nos équipes et nos clients. Vous interviendrez sur l’ensemble du cycle de développement en collaboration étroite avec les équipes Produit. Qualité & Testing : Définir la stratégie de test (unitaires, intégration, e2e, non-régression) Concevoir et exécuter des plans de test fonctionnels Identifier, documenter et suivre les anomalies Prioriser les incidents selon leur impact métier Suivre les correctifs jusqu’à validation finale Maintenir une traçabilité claire des tests Exécution & Validation : Exécuter les campagnes de tests manuels (fonctionnels, non-régression, exploratoires) Tester les APIs via Postman (validation des réponses, statuts, contrats) Tester les interfaces Web et Mobile Vérifier la cohérence des données en base ou dans les systèmes tierces Contrôler la conformité aux exigences métier Maintenir les tests automatisés existants Contribution à la qualité globale : Participer activement aux rituels agiles Challenger les spécifications lorsque nécessaire Proposer des améliorations fonctionnelles Contribuer à l’amélioration continue des processus QA
CDI

Offre d'emploi
AMOA SI Energie

IT-newvision sas
Publiée le

42k-52k €
Puteaux, Île-de-France
Dans le cadre de projets de mise en œuvre et d’évolution de Systèmes d’Information dans le secteur de l’énergie, nous recherchons un(e) Consultant AMOA disposant d’une bonne connaissance des enjeux métiers de l’énergie. Vous interviendrez en interface entre les équipes métiers et les équipes techniques sur le cycle de vie des projets SI. Activités principales Recueil et qualification des besoins, Veille et gestion du backlog sur le domaine applicatif, Rédaction de user stories, Participation au pilotage des équipes métier, Pilotage et participation à la recette, Mise en place des campagnes de tests, Accompagnement au changement et au déploiement applicatif, Reporting et suivi des avancements, Gestion et traitement des anomalies, Rédaction et mise à jour de documentations.
Freelance
CDI

Offre d'emploi
Chef de Projet IT Senior (Programme Data International)

Gentis Recruitment SAS
Publiée le
BI
KPI
Microsoft Excel

12 mois
Paris, France
Contexte de la mission Dans le cadre d’un programme stratégique de transformation des systèmes d’information, un grand groupe international du secteur de l’énergie renforce son équipe IT afin de piloter un programme data transversal à l’échelle internationale. Le projet vise à structurer et industrialiser la gestion des données B2B au sein de plusieurs entités du groupe, en mettant en place des standards communs de gouvernance, de qualité de données et de reporting. L’objectif est de disposer d’une source de données fiable et harmonisée permettant d’améliorer la prise de décision dans plusieurs domaines : ventes, opérations, finance, gestion des risques et conformité carbone. Le programme s’inscrit dans un contexte international impliquant plusieurs pays et nécessite une coordination forte entre équipes métiers, équipes IT et responsables data. Missions principales Le consultant interviendra en tant que Chef de Projet IT Senior et aura pour responsabilités principales : Piloter la mise en place d’indicateurs et de métriques de performance sur plusieurs entités internationales Assurer l’onboarding et la coordination des différentes parties prenantes du programme Garantir le respect des objectifs projet en termes de périmètre, planning, budget et qualité Assurer la coordination entre les équipes IT, les architectes et les équipes métiers Piloter les processus de communication, gestion des risques, gestion des incidents et gestion du changement Superviser la livraison des développements IT conformément à la roadmap définie Produire les reportings et préparer les instances de gouvernance du programme Participer à la structuration de la gouvernance data et à l’alignement entre les différents streams du programme Livrables attendus Plan de suivi du projet Reporting d’activité et indicateurs de performance Tableaux de bord KPI Suivi de l’avancement des développements Documentation de gouvernance et supports pour les comités de pilotage Roadmap et plan de déploiement du projet à l’international Compétences techniques requises Gestion de projet IT (plus de 10 ans d’expérience) Pilotage de programmes internationaux Reporting et mise en place de KPI Plateformes décisionnelles et outils de reporting Modélisation de données Maîtrise avancée des outils bureautiques (Excel notamment) Compétences fonctionnelles Expérience significative dans des projets data ou BI Bonne compréhension des architectures fonctionnelles et des systèmes d’information Expérience de déploiement de projets dans des environnements internationaux Capacité à piloter des transformations impliquant plusieurs entités Compétences comportementales Leadership et capacité à embarquer les équipes Excellente communication écrite et orale Forte capacité d’analyse et de structuration Capacité à travailler dans un environnement complexe et évolutif Aptitude à coordonner des équipes multidisciplinaires Langues Anglais courant indispensable Français apprécié
CDI

Offre d'emploi
Chef de projet Data MDM (industrie)

Amontech
Publiée le
BigQuery
Looker Studio
Master Data Management (MDM)

40k-45k €
Aubervilliers, Île-de-France
📌 Contexte Dans le cadre d’une mission au sein du Pôle DATA (secteur industriel) nous recherchons un/une Chef(fe) de projet Master Data pour intervenir sur la gestion et l’amélioration du référentiel d’entreprise. Vous intégrerez une équipe dédiée à la gouvernance des données , travaillant sur une solution interne et des projets d’amélioration continue de la qualité des données et des workflows métiers. 🎯 Missions En tant que Chef(fe) de projet Master Data, vous interviendrez à la fois sur la gestion du référentiel, l’amélioration de la qualité des données et la conduite de projets d’évolution. 🔧 Gestion et administration du référentiel (50%) Traiter les demandes utilisateurs dans les délais convenus Accompagner et animer le réseau des référents pour l’appropriation des outils et workflows Maintenir la cohérence et l’intégrité du référentiel de données ⚙️ Amélioration de la qualité des données (30%) Réaliser des analyses croisées multi-sources pour identifier anomalies et incohérences Définir et prioriser les plans d’action qualité en collaboration avec les métiers Évaluer les impacts sur les systèmes consommateurs et coordonner les actions correctives 🔧 Conduite de projets d’amélioration continue (20%) Recueillir et analyser les besoins d’évolution exprimés par le business Proposer des solutions innovantes et les soumettre à validation hiérarchique Piloter les projets validés de bout en bout (cadrage, spécification, réalisation, déploiement)
Freelance

Mission freelance
Consultant Data Governance & Steward - Delivery Ops

Tenth Revolution Group
Publiée le
Collibra
CRM
ERP

1 an
550-750 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Vous intervenez en tant que Data Steward Transverse / Consultant Gouvernance pour transformer la stratégie data en réalités opérationnelles. Votre mission est de faire le pont entre les enjeux métiers et les contraintes SI. Vous ne vous contentez pas de définir des politiques : vous les déployez concrètement sur le terrain. Vos principales missions : Opérationnalisation du patrimoine Data : Recenser les acteurs clés, cadrer les besoins métiers et formaliser les exigences (dictionnaires de données, règles de gestion, qualité, sécurité). Gouvernance "Hands-on" : Produire et maintenir la documentation (glossaires, cartographies de flux, procédures) et veiller à l'implémentation des règles dans les solutions cibles. Coordination & Delivery : Animer les comités opérationnels, réaliser les études d'impacts lors des évolutions SI et piloter les stratégies de migration de données. Outillage : Participer activement au choix et au déploiement des outils (MDM, Data Catalog) : contribution aux RFP, cadrage fonctionnel et accompagnement au changement auprès des utilisateurs.
Freelance

Mission freelance
Développeur Big Data

Codezys
Publiée le
JIRA
Linux
Python

24 mois
330-400 €
Lyon, Auvergne-Rhône-Alpes
Organisation Dans le cadre de ses activités liées au traitement de données volumineuses, une organisation recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans la gestion d'une plateforme Hadoop. Objectif de la mission Réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, notamment la mise en place d'extractions et l'accompagnement des utilisateurs. Description de la mission Le candidat, rattaché au responsable en charge du traitement de données volumineuses, sera principalement chargé de : Prendre en charge l'évolution des flux de données et reprendre les développements existants pour leur alimentation, en faisant évoluer ceux-ci selon les besoins. (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) Définir la spécification technique des tâches, fournir des requêtes de référence, réaliser des revues de code, et accompagner d’éventuels alternants ou stagiaires. Mettre en place des processus d'extraction à partir des données. Assurer le support de niveau 2. Faire respecter les consignes d’utilisation auprès des utilisateurs. Garantir le respect des délais de livraison dans un environnement exigeant. Contribuer à la maintenabilité, la performance et l’exploitabilité de la plateforme. Il veillera également à respecter l’utilisation des modèles référencés ou leur évolution, en collaboration avec la Direction Technique et la Gouvernance des Données. Le profil doit posséder des compétences avérées en communication, diplomatie, capacité d’intégration, partage de connaissances, documentation, et accompagnement des utilisateurs.
Freelance

Mission freelance
Data Engineer - IA (Bordeaux)

Cherry Pick
Publiée le
Agent IA
Apache Kafka
DBT

12 mois
390-400 €
Bordeaux, Nouvelle-Aquitaine
Intégré à la DSI au sein de l’équipe Data Tech Knowledge de la direction IT DATA de notre client à Bordeaux , le Data Engineer participera à des projets autour de l’IA et de la data. La mission consiste à : Effectuer des alimentations de données . Collaborer avec un Data Analyst sur des projets IA/Data. Développer et travailler autour d’ agents IA pour le requetage SQL en langage naturel . Mettre à disposition des outils d’aide au développement et au monitoring . Assurer une veille technologique sur les architectures data et outils associés. Stack Technique : Langages : Python, SQL Bases de données : Snowflake, SQL Server, PostgreSQL DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend Data Visualisation : PowerBI

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

2640 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous