L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 136 résultats.
Mission freelance
SRE DevOps / AI Automation (H/F)
HOXTON PARTNERS
Publiée le
Agent IA
AWS Cloud
DevOps
9 mois
Paris, France
Dans le cadre d’un programme stratégique au sein d’un grand groupe du secteur du luxe, nous recherchons un consultant senior SRE DevOps disposant d’une forte expertise sur AWS et d’une expérience concrète dans l’automatisation de la remédiation d’incidents via des agents IA. La mission s’inscrit dans un environnement exigeant, orienté fiabilité, performance et industrialisation des opérations. Le consultant interviendra sur des sujets de Site Reliability Engineering, d’automatisation avancée, d’observabilité et d’optimisation de la production, avec une forte dimension innovation autour des LLM et des agents autonomes. Les responsabilités incluent notamment : contribuer à la fiabilité, à la stabilité et à la performance des plateformes cloud AWS ; concevoir et mettre en œuvre des mécanismes de remédiation automatique d’incidents ; intégrer des agents IA dans les workflows d’exploitation, de troubleshooting et de runbooks ; participer à la mise en place de chaînes d’automatisation autour du monitoring, de l’alerting et de la gestion des incidents ; travailler sur des architectures et outils liés à Kubernetes, Docker, Terraform, Ansible et Helm ; collaborer avec les équipes infrastructure, applicatives, sécurité et opérations pour améliorer la résilience globale des services ; contribuer à l’observabilité et à l’exploitation des données issues d’outils tels que Datadog, Dynatrace, New Relic ou Elastic ; accompagner l’industrialisation des pratiques DevSecOps, de la gestion des accès, des secrets et des sujets IAM.
Mission freelance
Chef de Projet Automatisation / RPA / IA
CRYSTAL PLACEMENT
Publiée le
ERP
IA
SAP S/4HANA
1 an
400-790 €
Roissy-en-France, Île-de-France
Dans le cadre du développement d’initiatives d’ automatisation (RPA) et d’ intelligence artificielle au sein d’un environnement SI complexe (multi-SI, ERP, flux automatisés, gouvernance transverse), nous recherchons un Chef de Projet expérimenté capable de piloter et structurer plusieurs projets à forte valeur. Le rôle requiert un profil pragmatique, autonome et orienté solutions , capable d’assurer l’avancement opérationnel des projets tout en coordonnant les équipes IT et métiers. Mission Vous interviendrez au cœur des initiatives d’automatisation afin de structurer, piloter et sécuriser la mise en œuvre de projets RPA et IA , dans un contexte transverse impliquant plusieurs équipes techniques et métiers. Responsabilités Cadrage & structuration Recueillir, analyser et prioriser les besoins métiers et IT Définir les périmètres fonctionnels et techniques, les hypothèses et dépendances Préparer les éléments de cadrage (backlogs, feuilles de route, dossiers de cadrage) Identifier et proposer des solutions pragmatiques pour lever les points de blocage Pilotage opérationnel Animer le suivi quotidien et hebdomadaire des actions Piloter les plannings, jalons, livrables et risques projets Identifier et résoudre rapidement les points de blocage Maintenir une dynamique d’avancement même dans des contextes peu cadrés Superviser la qualité des développements RPA/IA (tests, documentation, préparation au déploiement) Coordination & communication Travailler en étroite collaboration avec les équipes métiers et IT Coordonner les interactions entre les équipes Data, ERP, intégration et partenaires externes Préparer les supports de pilotage et reporting (comités projet, plans d’action, suivi des risques) Faciliter la collaboration entre équipes et assurer l’alignement des parties prenantes Contribution Au-delà du pilotage opérationnel, vous contribuerez également à : l’amélioration de la gouvernance autour des projets d’automatisation (RPA/IA) l’optimisation des processus de sélection et cadrage des cas d’usage la structuration des interactions entre équipes IT et métiers
Offre d'emploi
Développeur Full Stack (H/F)
IA Soft
Publiée le
.NET CORE
Angular
Java
1 an
40k-45k €
400-550 €
Île-de-France, France
1. Intitulé du poste Développeur Full Stack (H/F) 2. Mission principale Le Développeur Full Stack conçoit, développe, teste et maintient des applications web ou logicielles en intervenant à la fois sur la partie front-end et back-end . Il participe à l’ensemble du cycle de vie des projets techniques, de l’analyse du besoin jusqu’à la mise en production, en veillant à la performance, à la sécurité et à la qualité du code. Il travaille en étroite collaboration avec les équipes produit, design, QA et infrastructure afin de livrer des solutions robustes, évolutives et adaptées aux besoins métiers. 3. Responsabilités principalesDéveloppement applicatif Concevoir et développer des fonctionnalités front-end et back-end. Participer à l’architecture technique des applications. Développer et maintenir des API, services et interfaces utilisateurs. Assurer l’intégration entre les différentes couches de l’application. Veiller à la qualité, à la lisibilité et à la maintenabilité du code. Maintenance et amélioration continue Corriger les anomalies et résoudre les incidents techniques. Optimiser les performances des applications. Participer aux évolutions techniques et fonctionnelles des produits. Assurer la maintenance corrective et évolutive des solutions existantes. Contribuer à la réduction de la dette technique. Qualité et sécurité Réaliser les tests unitaires, tests d’intégration et revues de code. Appliquer les bonnes pratiques de développement sécurisé. Veiller à la conformité du code avec les standards de l’entreprise. Participer à la documentation technique des applications. Garantir la fiabilité, la stabilité et la sécurité des développements. Travail en équipe Collaborer avec les Product Owners, UX/UI designers, DevOps et QA. Participer aux cérémonies Agile : sprint planning, daily meeting, rétrospectives, démos. Estimer la charge de développement et contribuer à la planification. Partager les connaissances techniques au sein de l’équipe. 4. Profil recherchéFormation Bac+3 à Bac+5 en informatique, développement logiciel ou équivalent. Une spécialisation en développement web, génie logiciel ou systèmes d’information est un plus. Expérience Expérience de 5 à 7 ans minimum en développement full stack. Expérience dans la réalisation d’applications web ou plateformes métiers. Une expérience en environnement Agile / Scrum est appréciée. 5. Compétences requisesCompétences techniques Bonne maîtrise des technologies front-end : HTML, CSS, JavaScript / TypeScript. Bonne maîtrise d’au moins un framework front-end : React, Angular, Vue.js ou équivalent. Bonne maîtrise des technologies back-end : Node.js, Java, .NET, PHP, Python ou équivalent. Expérience avec les API REST / GraphQL. Bonne connaissance des bases de données relationnelles et/ou NoSQL : PostgreSQL, MySQL, MongoDB, etc. Maîtrise des outils de versioning, notamment Git. Connaissance des environnements CI/CD, Docker, cloud ou DevOps appréciée. Sensibilité aux enjeux de cybersécurité, performance et scalabilité. Compétences comportementales Esprit d’analyse et de résolution de problèmes. Rigueur, autonomie et sens de l’organisation. Capacité à travailler en équipe et à communiquer efficacement. Curiosité technique et veille technologique active. Force de proposition et orientation qualité. 6. Objectifs du poste Développer des applications fiables, performantes et évolutives. Répondre aux besoins fonctionnels dans le respect des délais. Garantir un haut niveau de qualité technique et de sécurité. Participer à l’amélioration continue des outils, méthodes et architectures.
Offre d'emploi
Expert IA Gen
Deodis
Publiée le
Agile Scrum
AWS Cloud
Kubernetes
1 an
60k-65k €
550-600 €
Montpellier, Occitanie
La mission s'inscrit dans un contexte de développement d'une solution maison accès IA GEN. Les attentes sont : Expertise LLM Maison Fabrication d'un module IA GEN (RAG, génération PPT, Webgrounding) Développement Python Suivi des expérimentations, produit socle cognitif et Chat LLM maison L'ingénieur IA interviendra sur les différentes composantes du projet. Ses principales tâches sont : Développement Mise en marche d'évolutions à valeur ajouté de la solution maison Conseil Urbanisation produit Fabrication
Mission freelance
Product Owner Data/BI (Lille)
SQLI
Publiée le
CoreData
6 mois
400-600 €
Lille, Hauts-de-France
Bonjour, Pour le compte de l'un de mes clients Lillois, je suis à la recherche d'un Product Owner Data orienté BI. Mandatory : Une expérience de projets Power BI, afin de piloter la transformation des outils de reporting. Ses responsabilités : • Cadrer et formaliser les besoins métiers, organiser les demandes et la solution BI. • Collaborer avec les sponsors internes de la transformation pour favoriser l’engagement autour du projet. • Animer des ateliers de Product Discovery pour comprendre les usages, les irritants, les objectifs et les indicateurs clés. • Construire et maintenir le backlog BI, prioriser les sujets et arbitrer les évolutions en lien avec les entités métiers. • Collaborer étroitement avec le Tech Lead, les développeurs BI et les équipes Data pour garantir la cohérence et la qualité des livrables. • Valider les maquettes, prototypes (Figma) et rapports développés, en assurant leur pertinence métier, leur lisibilité UX et leur conformité aux standards. • Contribuer à la mise en œuvre d’un Design System dataviz, assurant cohérence et appropriation des tableaux de bord. • Favoriser la montée en compétence des équipes métiers sur la lecture, l’usage et l’évolution des rapports. • Garantir une documentation fonctionnelle claire et à jour pour faciliter la maintenance et la réversibilité. • Suivre les indicateurs de Delivery du projet à présenter lors des instances de pilotage.
Mission freelance
Assistance Technique IA
CAT-AMANIA
Publiée le
Copilot
GenAI
12 mois
700-840 €
Paris, France
Notre client cherche à structurer ses projets de valorisation des données et d’innover au travers de l’accès à différentes IA. L’équipe Gouvernance et mise en œuvre de l'IA, est à ce titre, en charge de la mise en œuvre de solutions d’IA génératives pour l’ensemble des collaborateurs Elle a en charge la mise en service et la maintenance d’un Hub et d'un portail IA permettant : - de mettre à disposition sur le poste de travail de chaque collaborateur, des assistants d’IA pré-paramétrés par typologies d’usage et par types de droits - de permettre à chaque utilisateur du portail IA de fabriquer de nouveaux assistants qui pourront être mis à disposition d’autres collaborateurs (logique Marketplace avec droits d’accès) - de permettre l’accès en direct à des IA depuis des logiciels tiers de l’entreprise (CRM, IDE Développement…) ou depuis des applicatifs métiers via appel d'API. - de mettre à disposition des modules de formation web aux bons usages de l’IA ainsi qu’une FAQ pour accompagner les utilisateurs du portail IA A ce titre, d’un point de vue technologique, nous nous appuyons, actuellement, sur le cloud Microsoft AZURE et sur une solution open source pour le portail IA (RAISE) basée sur Python, React, Langchain, Langgraph, Postgresql, Pgvector et docker. Au cours de la mission l'hébergement du portail IA sera amené à basculer on-premise. Par ailleurs l’équipe Gouvernance et mise en oeuvre de l'IA est en charge : - de gouverner l’utilisation des IA au sein de l’entreprise - de définir une stratégie d’utilisation des IA génératives en fonction des risques ou de contraintes portées par les données sources - d’optimiser les coûts d’utilisation à tout moment dans un contexte Cloud (FINOPS / MLOPS) - de mettre en place une chaîne CI/CD des projets IA
Mission freelance
WebApp Developer React / Node.js – Intégration GenAI (H/F)
HOXTON PARTNERS
Publiée le
Agent IA
GenAI
Node.js
12 mois
Paris, France
Dans le cadre du renforcement d’une équipe digitale, nous recherchons un WebApp Developer Fullstack afin de contribuer au développement d’une application web intégrant des fonctionnalités d’intelligence artificielle générative. Le rôle du consultant est centré sur l’intégration concrète de composants GenAI (LLM, APIs IA) au sein d’une application existante, avec un impact direct sur les parcours utilisateurs. Ce poste ne correspond pas à un rôle fullstack classique : une expérience réelle en intégration d’IA générative est indispensable.
Mission freelance
Data Engineer Sénior (Hadoop / Python)
Les Filles et les Garçons de la Tech
Publiée le
Apache Spark
Hadoop
Python
12 mois
150-650 €
Lyon, Auvergne-Rhône-Alpes
Au sein du pôle Big Data d'un grand groupe, l'objectif principal de ce poste est de réaliser et de maintenir les développements nécessaires à l'alimentation du Datalake sur une plateforme Cloudera Hadoop, de mettre en place des extractions de données et d'accompagner les utilisateurs. Rattaché(e) au responsable Big Data, vous évoluerez dans un contexte de production à fortes attentes où la tenue des délais de livraison et le pilotage opérationnel sont primordiaux. Vos principales missions seront les suivantes : Développement et intégration : Prendre en charge les évolutions des données à intégrer et reprendre les développements existants pour l'alimentation du Datalake. Vous développerez également des extractions avec un niveau d'expertise en SQL et créerez des scripts Shell avancés pour l'automatisation. Expertise technique et mentorat : Spécifier techniquement les tâches, fournir des requêtes de référence, effectuer des revues de code et accompagner les collaborateurs juniors, stagiaires ou alternants. Support et accompagnement : Assurer le support de niveau 2, faire appliquer les bonnes pratiques et consignes aux utilisateurs, et rédiger la documentation requise (guides, description de processus). Optimisation et maintenance : Garantir la maintenabilité, les performances et l'exploitabilité de la plateforme en respectant l'utilisation des modèles référencés par la Gouvernance de la Donnée. Vous optimiserez les traitements de la plateforme et ceux des utilisateurs, et mènerez des investigations (reverse engineering) dans une architecture héritée complexe
Mission freelance
DBA Cassandra & PostgreSQL orienté OPS & Automation (Ansible / Python) – H/F
OCSI
Publiée le
Ansible
Cassandra
Oracle
3 ans
400-600 €
Île-de-France, France
Contexte Dans le cadre du renforcement d’une équipe dédiée aux plateformes de données au sein d’un grand groupe international, nous recherchons un Lead DBA orienté OPS & Automation. L’équipe intervient sur la conception, la mise en œuvre et le maintien d’architectures bases de données pour des usages internes critiques, avec une forte orientation automatisation et industrialisation des opérations. Vous intégrerez un environnement technique exigeant, en lien avec des équipes internationales, au cœur des enjeux de performance et de fiabilité des systèmes. Missions Dans ce cadre, vos principales responsabilités seront : • Assurer le support niveau 3 sur les bases de données PostgreSQL et Cassandra • Participer à la mise en place et à l’industrialisation de l’automatisation des environnements de production • Développer et maintenir des solutions d’automatisation via Python et Ansible • Intervenir en support niveau 1 sur les environnements Oracle et Goldengate • Contribuer au maintien en conditions opérationnelles des plateformes (notamment web) • Participer aux projets d’évolution des architectures data • Collaborer avec des équipes internationales dans un environnement anglophone
Offre d'emploi
Machine Learning Engineer - MLOps
Okara
Publiée le
MLOps
6 mois
Lille, Hauts-de-France
Au sein d'un acteur majeur du retail européen, l'équipe Data & IA Marketplace traite des volumes massifs de données issues de vendeurs tiers. L'objectif est d'automatiser la qualification, la classification et l'enrichissement des catalogues produits pour garantir une expérience utilisateur optimale. Le défi réside dans l'industrialisation de modèles complexes au sein d'une architecture Data Mesh en forte croissance. La Stack Technique Langages : Python, Bash. Cloud : GCP (Google Cloud Platform). Orchestration & MLOps : Airflow, Kubeflow, ZenML, MLflow, Vertex AI. Infrastructure & DevOps : Docker, Kubernetes, Terraform, Ansible, Gitlab CI. Data Quality & Feature Store : Great Expectations, Feast. Ta Mission & Ton Impact : Concevoir et maintenir des pipelines MLOps automatisés (CI/CD) pour l'entraînement et le déploiement des modèles en production. Gérer l'infrastructure cloud via Terraform et assurer le versioning complet des modèles et des données. Implémenter le monitoring de performance (détection de drift, latence) et configurer l'alerting pour garantir la fiabilité des solutions. Accompagner les Data Scientists dans l'adoption des meilleures pratiques de développement (code quality, tests, industrialisation). Intégrer des validations de schémas et des filtres de qualité de données au sein des pipelines de production.
Mission freelance
Chef de Projet / Lead Sécurité Data & Cloud (GCP) H/F
Inventiv IT
Publiée le
BI
Data governance
Google Cloud Platform (GCP)
6 mois
Niort, Nouvelle-Aquitaine
Contexte de la mission Suite à un audit interne, la mission vise à : Structurer une roadmap sécurité Data Renforcer la protection des données Améliorer le maintien en condition opérationnelle (PRA / PRI) Sécuriser la migration vers le Cloud (GCP) Aligner les pratiques avec les exigences RSSI / PSSI / RGPD Environnement hybride : On Prem + GCP. Objectifs de la mission Structurer et piloter la sécurisation du patrimoine Data Mettre en œuvre les exigences PCI / PRI Data Revoir et fiabiliser les habilitations On Prem & Cloud Renforcer la gouvernance des données sensibles Sécuriser les outils Data / BI / Data Science Contribuer aux exigences RSSI (vulnérabilités, audits, recommandations) Compétences techniques clés Architecture sécurité Cloud (GCP) BigQuery security & Data masking IAM avancé PRA / PRI Data Governance Sécurité applicative Data Environnements Hadoop / Oracle Soft skills Leadership transverse Capacité à dialoguer avec RSSI & CoDir Structuration roadmap Vision stratégique et opérationnelle Responsabilités principales Sécurisation des accès Revue des habilitations On Prem et Cloud Mise en œuvre du principe de moindre privilège Gestion des comptes applicatifs et nominatifs Automatisation des habilitations Cloud Amélioration du processus de revue des droits PRA / PRI Data Structuration PCI / PRI Data Cartographie applicative & technique Identification des criticités Organisation sauvegardes et tests de restauration Priorisation PCI Cloud Gouvernance & protection des données Revue criticité données (RH, Finance, SP, IARD) Anonymisation / pseudonymisation / masking Harmonisation vers masking dynamique BigQuery Auditabilité & conformité RGPD Sécurisation des outils Cartographie des principes SSO Sécurisation outils BI & Data Science Implémentation OAuth2 / SSO Ségrégation projets GCP Coordination sécurité Interface RSSI / DDSI / Data Office Intégration périmètre Data dans outils internes Suivi vulnérabilités Animation comités sécurité Data Environnements techniques Cloud : GCP, BigQuery, DBT, Data Fabrik Cloud On Prem : Hadoop, Hive, Oracle, SAS, Informatica / PowerCenter, NAS Outils Data / BI / Data Science : Dataiku, BO, Tableau, RStudio, Jupyter, IDE Python Référentiels & sécurité : LeanIX, IAM, OAuth2 / SSO
Mission freelance
101005/Data Analyst Nantes - langage Python et du PySpark.
WorldWide People
Publiée le
PySpark
Python
12 mois
400-500 €
Nantes, Pays de la Loire
Data Analyst Nantes - langage Python et du PySpark. - Excellentes connaissances des techniques statistiques et des méthodes de Data Science – Datamining. - Maîtrise de SGBD et du SQL. - Expérience significative dans la gestion et la manipulation de données au sein d’une architecture data complexe. - Maîtrise de Git. - Capacité d’analyse et de préconisation. Expériences requises : - Au moins deux ans d'expérience en travail en Agilité. - Au moins quatre ans d'expérience en réalisation de projets data orientés analyse et datascience. - Au moins trois ans d'expérience en manipulation de données en environnement data complexe et industriel. Contexte : Notre client, acteur du secteur du transport, recherche un data analyste senior pour une mission stratégique. Le profil devra collaborer avec le PPO Data pour cadrer des analyses et tableaux de bord à destination des métiers. Il sera force de proposition pour les plans d'analyses ad hoc et l'identification de problématiques métiers résolubles par la data. Responsabilités : - Comprendre et modéliser les problématiques métier et celles du pôle. - Définir avec justesse le périmètre des données nécessaires à la solution technique. - Concevoir et développer des modèles de machine learning. - Modéliser des résultats d’analyse des données pour les rendre lisibles, exploitables et actionnables. - Créer des visualisations appropriées aux besoins cartographiques si nécessaire. - Estimer la charge à allouer aux différents traitements et actions techniques prévus. - Optimiser le modèle de donnée des projets data de l’équipe. - Développer des scripts Python optimisés. - Créer les tables ou vues nécessaires aux projets data de l’équipe. - Échanger avec les ops de la Team Data pour l'industrialisation de la collecte, des traitements, de la supervision et de la restitution des données. - Réaliser des plans d’analyse data. - Expliquer le sens des informations exploitables en termes pertinents pour les métiers. - Conceptualiser et développer autour d’une problématique métier. - Communiquer les informations en soulignant la valeur des actions. - Formaliser les résultats d’analyse et les présenter aux métiers commanditaires. - Être force de proposition sur la mise en place d’actions pertinentes en fonction des résultats d’analyses et des conclusions (préconisations). La mission nécessite : - Maîtrise du langage Python et du PySpark. - Excellentes connaissances des techniques statistiques et des méthodes de Data Science – Datamining. - Maîtrise de SGBD et du SQL. - Expérience significative dans la gestion et la manipulation de données au sein d’une architecture data complexe. - Maîtrise de Git. - Capacité d’analyse et de préconisation. Expériences requises : - Au moins deux ans d'expérience en travail en Agilité. - Au moins quatre ans d'expérience en réalisation de projets data orientés analyse et datascience. - Au moins trois ans d'expérience en manipulation de données en environnement data complexe et industriel.
Mission freelance
Data Architect Databricks Nantes/pa
WorldWide People
Publiée le
Databricks
12 mois
Nantes, Pays de la Loire
Data Architect Databricks Nantes Compétences Techniques •Maîtrise des bases de données relationnelles et non relationnelles (ex : SQL, NoSQL, …). •Compétence en modélisation de données et en conception de schémas. •Connaissances des pratiques d’architecture solution •Expertise dans des outils et technologies Big Data (Databricks). •Connaissance des environnements cloud (ex : Azure…). Prestation de Data Architect •Il définit l’architecture Data pour son périmètre, en fonction des besoins métier, en tenant compte de l’architecture du SI, des règles de gouvernance Data et plus globalement des standards et des communs définis au niveau de son organisation. •Sur la partie Data, il définit les normes et standards en matière de disponibilité, d’intégrité, de confidentialité et de traçabilité dans l'objectif de maximiser la valeur que l’organisation tire de ces données. •C’est lui qui pilote la mise en oeuvre des principes d’architecture Data dans le SI et garantit sa conformité, sa performance, sa pérennité, son adéquation aux besoins métier ainsi que l’optimisation du cycle de vie de la donnée. •Le Data Architect préconise et valide les principes de modélisation des données pour qu’ils soient adaptés aux usages de façon durable. •Il organise la gestion des référentiels Data et facilite leur maintenance. Tâches : •Contribue à l’élaboration de la stratégie Data de la donnée alignée avec la stratégie business et en cohérence avec la roadmap de l’Architecte d’entreprise. •Contribue aux choix technologiques qui portent le cycle de vie de la donnée. •Assure une veille technologique active sur les solutions innovantes et particulièrement en matière de Data et d’IA. •Définit les règles, normes et standards en matière de stockage et de traitement de la donnée. •Coordonne les travaux d’architecture Data et en assure la gouvernance. •Assure la cohérence du modèle Data tout au long du cycle de vie des projets. •Répond aux exigences réglementaires liées à la Data. Compétences Techniques •Maîtrise des bases de données relationnelles et non relationnelles (ex : SQL, NoSQL, …). •Compétence en modélisation de données et en conception de schémas. •Connaissances des pratiques d’architecture solution •Expertise dans des outils et technologies Big Data (Databricks). •Connaissance des environnements cloud (ex : Azure…).
Mission freelance
Expert Architecte Alfresco - GED & Intégration SI (H/F)
ODHCOM - FREELANCEREPUBLIK
Publiée le
Alfresco
3 mois
Paris, France
Contexte Notre client, acteur majeur du secteur de l'énergie, engage une prestation d'expertise Alfresco dans le cadre d'un projet de transformation SI (FI/CO/MM/HR/PS). L'objectif : définir l'architecture, industrialiser et sécuriser l'implémentation Alfresco au sein de son écosystème applicatif, avec intégration SAP et reprise de données (volumétrie estimée : ~2,9 To). Missions - Cadrer la prestation et définir l'architecture cible Alfresco (sizing RAM, CPU, stockage) - Produire les dossiers d'architecture en lien avec l'équipe architecture applicative - Mettre en oeuvre l'intégration Alfresco / SAP et la connexion LDAP - Automatiser le déploiement multi-environnements (Ansible apprécié) - Définir la stratégie de reprise de données et les tests de performance - Spécifier la supervision de la solution - Produire les dossiers d'exploitation (DOE) et assurer le transfert de compétences
Mission freelance
Data ingénieur Databricks & Power BI Full remote ASAP (4-5 ans d'exp Databricks)
WorldWide People
Publiée le
Databricks
6 mois
320-340 €
France
Data ingénieur Databricks & Power BI Full remote ASAP (4-5 ans d'exp Databricks) Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL
Offre d'emploi
Data Engineer/Architecte
OBJECTWARE
Publiée le
Apache Spark
AWS Cloud
DBT
3 ans
41k-91k €
400-710 €
Île-de-France, France
Missions principales Conception et optimisation de pipelines de données à grande échelle (batch, streaming, API) Structuration des données selon le modèle Médaillon (Bronze / Silver / Gold) Développement et industrialisation via DBT, Spark et Iceberg Orchestration des workflows ETL/ELT via Airflow Déploiement cloud sur AWS et infrastructure as code avec Terraform Conteneurisation des traitements ( Docker, Kubernetes ) Supervision, observabilité, gestion des incidents et qualité des données Documentation et conformité RGPD Accompagnement de profils juniors
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4136 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois