Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 419 résultats.
Freelance
CDI

Offre d'emploi
Data engineer - Vannes - 5-10 ans d'éxpérience Vannes (56)

Publiée le
Agile Scrum
Apache
Apache Kafka

1 an
40k-45k €
400-550 €
Vannes, Bretagne
Télétravail partiel
Merci de bien lire l'annonce ci dessous et vérifier que vous correspondez au besoin. Nous recherchons exclusivement des candidats basés à Vannes ou en Bretagne . Merci de ne pas envoyer de candidature si vous êtes situés hors de cette zone géographique. En tant que Data Engineer , votre mission principale sera de produire des solutions techniques robustes et performantes pour exploiter au mieux les données du client. Cependant, votre rôle ne se limitera pas à l’aspect technique : vous serez également un partenaire stratégique des métiers , capable d’identifier leurs besoins, de comprendre leurs enjeux et de proposer des solutions techniques adaptées. Vos responsabilités : Concevoir, développer et maintenir des pipelines de données performants et évolutifs Participer à la définition de l'architecture Data Développer les solutions de collecte et de stockage des données Mettre en place les tests unitaires et automatisés Garantir la qualité, la sécurité et l’intégrité des données tout au long de leur cycle de vie. Implémenter des solutions qui optimisent la gestion des données pour les équipes métier. Collaborer étroitement avec les équipes métier pour comprendre leurs objectifs stratégiques. Faciliter la communication entre les équipes techniques et les non-techniciens Vous serez à la croisée des chemins entre technique et métier , jouant un rôle clé pour transformer les données en un véritable levier de décision. Votre capacité à allier expertise technique et vision stratégique fera de vous un acteur indispensable pour relever les défis de l’entreprise.
Freelance
CDI

Offre d'emploi
Data engineer MSBI Python Azure (7-8 ans minimum)

Publiée le
Azure Data Factory
Azure DevOps
Microsoft SSIS

3 ans
50k-65k €
500-580 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Freelance
CDI
CDD

Offre d'emploi
Senior Azure IAM Engineer / Cloud Security Engineer

Publiée le
IAM

12 mois
Charleroi, Hainaut, Belgique
Télétravail : 3 jours / semaine Contexte: Le Senior Azure IAM Engineer / Cloud Security Engineer rejoindra la Factory IAM. L'objectif est de mettre en œuvre la stratégie de nettoyage des droits privilégiés dans Azure, en appliquant les bonnes pratiques de sécurité, en supprimant les héritages non maîtrisés, et en modélisant les rôles techniques dans un environnement cloud complexe. Tâches principales : • Collecter et analyser les permissions existantes dans Azure (Management Groups, Subscriptions, Resource Groups). • Supprimer les héritages de droits non souhaités depuis le Management Group Root. • Implémenter des modèles de rôles RBAC sécurisés et adaptés aux besoins métiers. • Automatiser les audits et les revues d’accès via PowerShell, Azure CLI. • Monitorer les usages des rôles à privilèges (Owner, Global Admin, etc.) et proposer des remédiations. • Collaborer avec les équipes IAM, I&O et sécurité pour intégrer les rôles dans les workflows existants. • Documenter les rôles, les règles d’héritage, et les processus d’attribution. • La surveillance et reporting des journaux d'activité (Audit Logs) pour la détection d'anomalies et violations de sécurité. Profil recherché : • Certification Microsoft SC-300 : Identity and Access Administrator Associate – Must have • Certification Microsoft SC-104 : Azure Administrator Associate - Nice to have • Expertise en Azure RBAC, Entra ID, PIM, et gestion des rôles personnalisés. • Maîtrise des outils d’automatisation : PowerShell, Azure CLI. • Connaissance des limites Azure (nombre d’assignations, héritage, etc.). • Expérience en sécurité cloud et gouvernance des accès. • Capacité à travailler en environnement multi-équipes et à gérer des projets techniques complexes. • Langues : Français C1, Anglais B2 • Autonomie
Freelance

Mission freelance
DevOps Infrastructure Engineer (H/F)

Publiée le

36 mois
500-600 €
Suresnes, Île-de-France
Je recherche actuellement pour mon client un.e DevOps Infrastructure Engineer (H/F) L'équipe de mon client supporte les outils et l'infrastructure des équipes de développement (embarqué et serveurs) dans leur mise en place de chaines de CI/CD sur une « stack » applicative commune. L'équipe est constituée de 6 collaborateurs sur deux sites (Suresnes et Valence dans la Drôme). Cette intégration continue est constituée de la « stack » suivante : Jira pour le suivi des tickets ; BitBucket comme gestionnaire de dépôts Git et solution de « code review » ; Jenkins pour l'intégration continue ; Artifactory pour les dépôts d'artefacts ; XRay (plugin Jira) pour les tests ; SonarQube/Blackduck pour le SAST et le SCA. La configuration de ces applications (création d'espaces, gestion des permissions, etc.) est réalisée à l'aide d'un outil interne de « self-service » basé sur les concepts GitOps. L'équipe Software Factory Infrastructure est une équipe IT dédiée, en charge de déployer et maintenir cette solution applicative et son infrastructure. Description L'objectif de la mission est de renforcer l'équipe sur les actions courantes qui sont les suivantes : La gestion du cycle de vie des solutions La documentation et le référencement de chaque changement dans les outils Participer au développement continu de la plateforme de Monitoring (PRTG). Contribuer à notre dynamique d'Infrastructure as a Code via Ansible Automation Platform. Participer à l'automatisation des tâches récurrentes. Assurer la MCO de l'ensemble des services (applications et infrastructure). Contribuer aux divers espaces documentaires. Monter en compétence sur les diverses applications afin de pouvoir accompagner fonctionnellement nos utilisateurs. Environnement technique Infrastructure : VMWare, Ansible, Kubernetes, Ubuntu, Fortigate, VMware Advanced Network Load Balancer, Zerto, PostgreSQL, … IT Tooling : ELK, PRTG, Crowd, Landscape, Kibana, … Applications : Bitbucket, Jira, Confluence, Jenkins, Sonarqube, Artifactory, Blackduck Compétences requises Maitrise des concepts DevOps et GitOps Maitrise de l'administration de système Linux Ubuntu Maitrise des environnements de virtualisation (VMWare & Azure) Maitrise des outils d' « Infrastructure as a Code » (Ansible, Terraform) Maitrise du réseau (Fortinet), Load Balancing, VLAN Expérience avérée en mise en œuvre et gestion d'outils de containerisation (K8S) Connaissance des outils de gestion de log (ELK) et de Monitoring (PRTG) Connaissance en base de données (PostgreSQL) Capacité de planifier et mettre en œuvre Capacité à comprendre et analyser avant d'agir Capacité à prendre en charge le support de ses solutions Connaissance de Git et Jenkins Connaissance d'au moins un langage de programmation (Python) Anglais courant à l'oral et à l'écrit Savoir parler chinois (mandarin) est un plus
Freelance

Mission freelance
Backend Kotlin Engineer - Microservices & Cloud (H/F) (H/F)

Publiée le
Cloud
Kotlin
Microservices

6 mois
500-550 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Dans le cadre du renforcement de son équipe technique travaillant sur des architectures backend complexes et fortement distribuées, notre client recherche un Développeur Backend Kotlin pour intervenir sur des environnements microservices à grande échelle, avec de forts enjeux de performance et de scalabilité. Cette mission s’inscrit dans un contexte cloud-native, avec une exposition à la fois sur Azure et AWS, au sein d’une organisation technique mature, structurée et orientée qualité industrielle. Vos missions : * Développer et maintenir des microservices backend en Kotlin dans un écosystème très fortement distribué * Intervenir sur des architectures impliquant un grand nombre de microservices interconnectés * Participer à la conception technique et aux choix d’architecture liés à la scalabilité, la résilience et la performance * Concevoir des APIs robustes, capables de supporter des volumes de charge élevés * Travailler sur des problématiques de montée en charge, de latence et de stabilité * Participer activement aux revues de code et aux bonnes pratiques d’ingénierie * Collaborer étroitement avec les équipes produit, DevOps et plateforme Les compétences techniques * Langage : Kotlin * Architecture : Microservices à grande échelle * Cloud : Azure & AWS * APIs : REST * Méthodologie : Agile / Scrum * Environnements à fort trafic et forte volumétrie
Freelance

Mission freelance
Analytics Engineer – Expertise Cornerstone

Publiée le
Analyse

1 an
100-550 €
Île-de-France, France
Description de la mission Pour le besoin de mon client basé à Paris , je suis à la recherche d'un Analytics Engineer – Expertise Cornerstone Tâches Contexte : Au sein du HR Data Office, accompagner les Business Process Owners (BPO) Formation dans la définition et la création de dashboards Power BI, en exploitant les données issues de Cornerstone onDemand. Objectifs : Traduire les besoins métier en exigences claires pour la création de dashboards. Créer, mettre à jour et maintenir des dashboards Power BI pour la formation. Étudier les options de reporting Cornerstone et optimiser les reportings existants. Fournir des analyses quantitatives et qualitatives sur les données de formation. Présenter les dashboards aux équipes et stakeholders. Documenter les solutions mises en place. Compétences Demandées Compétences requises : Expertise Cornerstone onDemand (obligatoire) Maîtrise Power BI, DAX, Power Query Modélisation de données, publication, sécurité (RLS), refresh PBIRS Compréhension des KPIs et besoins utilisateurs Anglais professionnel Capacité à former et expliquer les dashboards
Freelance

Mission freelance
Data Engineer Python / AWS (h/f)

Publiée le

1 mois
550-580 €
1000, Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Contexte : Le Data Engineer Python / AWS est chargé de concevoir et maintenir des pipelines de données efficaces au sein de l'équipe Power Data. Ce rôle exige une expertise approfondie en Python et AWS, ainsi que des compétences en ingénierie des données pour transformer les besoins commerciaux en solutions fonctionnelles basées sur les données. Livrables : Collecte de données Préparation et nettoyage des données à l'aide de Dataiku Création et maintenance de pipelines de données Ingestion de données dans un data lake Traitement et transformation des données selon des cas d'utilisation Intégration de Dataiku, services AWS et PowerBI Développement et maintenance de dashboards et rapports PowerBI Visualisation efficace des données Formation et mentorat sur les meilleures pratiques Compétences : Expérience en ingénierie des données (Data Engineering) Maîtrise de Python Expérience avec AWS Compétences en analyse de données et en création de modèles de données Connaissance de Dataiku et PowerBI Compétences en gestion de la qualité et sécurité des données Expérience en visualisation de données Anglais courant / Français est un plus Autres Détails : Télétravail 3 jours par semaine, intégration à une équipe à Bruxelles avec des déplacements occasionnels à Paris. Durée du contrat : 3 ans.
Freelance
CDI

Offre d'emploi
Data Engineer

Publiée le
Dataiku
Microsoft Power BI
PySpark

1 an
40k-45k €
400-690 €
Paris, France
Télétravail partiel
Contexte du Projet Une organisation leader en solutions de financement est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Il se concentre sur la phase d'exploration des données liées au reporting réglementaire, avec un périmètre limité aux données critiques, provenant de diverses sources. L'objectif est de garantir un accès optimisé et une gouvernance renforcée pour les Data Quality Analysts (DQA). Conception et implémentation des pipelines de données Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. Suivre avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. Industrialisation et automatisation des flux de données et des traitements Mettre en place des processus d'industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l'exploration à la production, en intégrant les modèles dans des pipelines automatisés. Gestion des données et optimisation des performances Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d'architecture de stockage (raw, refined, trusted layers). Assurer la surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l'intégrité des jeux de données. Sécurité et gouvernance des données Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. Travailler en collaboration avec le Data Office pour assurer l'alignement avec les politiques et processus définis. Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées.
Freelance

Mission freelance
Cloud Engineer Data (GCP) – Secteur Assurance

Publiée le
Architecture
BigQuery
Cloud

1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans le cadre du renforcement de sa plateforme data cloud, un acteur majeur du secteur de l’assurance recherche un Cloud Engineer orienté data . La mission consiste à accompagner la structuration, la fiabilisation et l’exploitation des environnements data sur GCP , en support des équipes IT Data. Missions principales Concevoir et maintenir les environnements cloud data sur GCP Accompagner les équipes Data Engineer dans l’exploitation des plateformes data Participer à la conception des architectures cloud data Garantir la disponibilité, la performance et la sécurité des environnements Assurer le lien entre les équipes infrastructure, cloud et data Contribuer à l’industrialisation des plateformes data Stack technique obligatoire Google Cloud Platform (GCP) Environnements cloud data Services data GCP (dont BigQuery) Connaissance des environnements Hadoop appréciée Profil recherché Cloud Engineer confirmé orienté data Bonne compréhension des architectures data cloud Capacité à travailler avec des équipes data techniques Profil structurant, orienté conception et exploitation
Freelance
CDI

Offre d'emploi
DATA ENGINEER

Publiée le
BigQuery
MySQL
Python

6 mois
40k-45k €
400-550 €
Paris, France
Contexte : Nous recherchons un Data Engineer GCP confirmé pour accompagner nos clients dans la mise en place et l’industrialisation de leurs pipelines data au sein d’environnements Cloud exigeants. Missions : Conception et développement de pipelines data dans GCP (Dataflow, Dataproc, Composer). Modélisation et optimisation des tables dans BigQuery. Mise en place de bonnes pratiques CI/CD (Cloud Build, GitLab CI, Terraform…). Industrialisation, monitoring et optimisation des workflows. Collaboration étroite avec les équipes Data, Produit et Architecture. Compétences recherchées : Maîtrise des services GCP Data (BigQuery, Dataflow, Pub/Sub, Composer). Très bonne expertise Python et frameworks ETL. Connaissances des bonnes pratiques DevOps (Docker, Terraform…). Expérience en environnement Data à forte volumétrie. Esprit analytique, autonomie et capacité à travailler en équipe. Profil attendu : 3 à 5 ans d’expérience en Data Engineering. Expérience significative sur GCP obligatoire. Une certification GCP Data Engineer est un plus.
CDI

Offre d'emploi
CAD Designer & Stress Engineer – Aéronautique / Spatial (H/F) - Toulouse (31)

Publiée le

42k-47k €
Toulouse, Occitanie
Vous souhaitez concevoir des structures aéronautiques ambitieuses et en garantir la tenue mécanique, du concept à la certification ? Nous vous proposons d’intervenir sur des structures composites et métalliques à forte exigence. En tant que CAD Designer & Stress Engineer , vous évoluerez au sein d’équipes pluridisciplinaires (design, stress, manufacturing, qualité, certification) et interviendrez sur l’ensemble du cycle de vie : conception CAO , analyses de dimensionnement, revues de conception , préparation des essais et constitution des dossiers de certification . Un peu plus de détails -Concevoir des pièces et sous-ensembles conformément aux exigences produit/process. -Produire les plans et mettre à jour les nomenclatures. -Assurer la traçabilité dans le système de gestion de configuration (PLM) . -Collaborer étroitement avec les équipes stress, industrialisation et qualité. -Réaliser le dimensionnement détaillé via calculs classiques et simulation éléments finis (FEA) . -Valider les rapports de calcul et contribuer aux dossiers de certification . -Participer à la campagne d’essais structuraux . Environnement technique - CAO/PLM : CATIA V5/V6, Windchill (ou équivalents), outils de gestion de configuration & change control. - FEA : Abaqus, Nastran, ANSYS, HyperMesh. - Composites : prepreg/autoclave, RTM , AFP/ATL , post-traitements, NDT. - Outillage & scripting : Python / MATLAB pour post-traitements/calculs. - Qualité/Certif : exigences EASA/FAA , documentation et traçabilité.
CDI

Offre d'emploi
Data Engineer H/F

Publiée le
Big Data
Data Lake
Spark Streaming

Île-de-France, France
Télétravail partiel
Le Data Engineer est un développeur au sein de l’équipe Engineering Open Big Data du Département Data, qui regroupe l’ensemble des expertises technologiques liées à l’ingénierie de la donnée, de l’automatisation et à l’exploitation des modèles de Machine Learning. Ce déparetement est dédié au service de notre client et de ses équipes (Data office, Tribus data, Business, Transformation Office etc.), afin de fournir, en collaboration avec le Data Office, les plateformes (RPA, BI, Data, …) et les données nécessaires aux équipes chargées de délivrer les cas d’usages, puis les déployer et les maintenir en conditions opérationnelles.
Freelance

Mission freelance
Founding Engineer TypeScript / Node.js / IA / LLM

Publiée le
AWS Cloud
Large Language Model (LLM)
Node.js

12 mois
Paris, France
Contexte de la mission Un client confidentiel du secteur transport/logistique, financé par des fonds d’investissement de premier plan, lance un projet stratégique visant à révolutionner la gestion du transport routier à l’aide d’agents d’intelligence artificielle. Dans ce cadre, l’entreprise recherche un Founding Engineer spécialisé en TypeScript / Node.js et IA pour rejoindre une équipe technique restreinte composée du CTO et de trois développeurs confirmés. La mission se déroule entièrement en présentiel afin de favoriser la co-construction rapide du produit et des itérations techniques rapprochées. Objectifs et responsabilités Le consultant interviendra sur la conception et la mise en place du socle technique du produit, incluant : • Concevoir, développer et déployer des APIs robustes et scalables • Structurer les flux de données provenant de systèmes TMS, appels, messages et autres sources • Collaborer étroitement avec le CTO et les utilisateurs opérationnels pour la construction du MVP • Participer au lancement d’un projet innovant d’IA temps réel (audio) • Assurer un rôle majeur sur le backend, la data et l’ingénierie IA • Mettre en place l’observabilité : monitoring, logs, métriques et alerting • Contribuer aux choix d’architecture, arbitrages techniques et discussions produits • Participer au déploiement, aux tests et aux itérations rapides en environnement startup Profil recherché Compétences indispensables • Ingénieur fullstack avec forte orientation backend et data • Minimum 4 ans d’expérience significative sur Node.js et TypeScript • Forte expertise Backend et Data Engineering • Expérience avérée dans un environnement startup, scale-up, licorne ou rôle de Founding Engineer • Avoir déjà lancé un produit from scratch • Niveau attendu : Staff Engineer ou Principal Engineer • Capacité à raisonner en approche “problème → solution” • Grande rapidité d’itération : tester, ajuster, apprendre, recommencer • Capacité à échanger directement avec les utilisateurs métier (transporteurs, brokers) • Connaissance pratique des LLM et de l’IA appliquée • Flexibilité sur les horaires lors des phases de mise en production (soir, week-end si nécessaire) Compétences appréciées (bonus) • Expérience en IA agentique (agents autonomes) • Connaissances poussées en prompting, grounding, fallback, monitoring IA • Amélioration des performances d’agents en production • Contribution à l’architecture produit à grande échelle Stack technique actuelle • Node.js / TypeScript (backend principal) • Python (agents IA) • PostgreSQL • API REST, WebSocket • AWS (architecture scalable), Kubernetes
Freelance
CDI

Offre d'emploi
QA automatisation Back et Front end- Aix en Provence (H/F)

Publiée le
Automatisation
ISTQB
Méthode Agile

3 ans
46k-49k €
400-430 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Quel challenge proposons-nous ? Dans le cadre de projets dans le domaine du test en région PACA, nous recrutons un Ingénieur QA automatisation Back et Front end (F/H) pour renforcer nos équipes d’experts en test à Aix en Provence. Notre collaborateur devra être aussi bien à l’aise en Front qu’en back end , il intégrera une équipe Agile en approche BDD . Définir le processus de mise en œuvre de l'automatisation des tests Rédiger les plans de tests d’automatisation Comprendre et anticiper les scénarios à automatiser sur des tests fonctionnels et non fonctionnels. Automatiser dans un premier temps les tests de non régression Définir et valider les périmètres de tests Estimer la charge de test de son périmètre Rédiger les scripts d'automatisation à partir des spécifications Exécuter les cas de tests automatisés Mettre à jour et maintenir les tests automatisés Configurer et lancer les Batch Réaliser les tests de Webservices Remonter les anomalies Rédiger les rapports de tests Mode de travail = 3 jours de présentiel et 2 jours de remote - 1er mois d'intégration en présentiel
Freelance

Mission freelance
Data engineer (H/F)

Publiée le
Dataiku
ELK

1 an
400-460 €
Châtillon, Île-de-France
Télétravail partiel
Infrastructures de données : - Cartographie et documente les sources de données. - Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. - Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. - Structure les bases de données (sémantique, format, etc.). - Contribue à la gestion des référentiels de données. Intégration des données : - Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l'extérieur de l'entreprise. - Assure la supervision et l'intégration des données de diverses nature qui proviennent de sources multiples. - Vérifie la qualité des données qui entrent dans le Data Lake et s'assure de leur sécurité. - Nettoie la donnée (élimination des doublons) et la valide pour une utilisation aval. Animation des communautés : - Anime la communauté technique qui met en œuvre les dispositifs prévus ou nécessaires à l'application de la politique de la donnée de l'entreprise. Veille technologique : - Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. - Propose des évolutions pour les infrastructures et solutions de données en place Exemple de livrables - Dossier d'architecture (ou cadre technique) des solutions (plateformes) de traitement des données. - Un data lake adapté aux besoins actuels et futurs de l'entreprise. - Une cartographie des données. - Les éléments permettant de garantir la qualité de la donnée.
Freelance
CDI

Offre d'emploi
Data Engineer Teradata / Big Data, spécialiste du RUN

Publiée le
Apache Hive
Apache Spark
Big Data

12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
La tribu DATA (DAT) construit et développe des applications sur la base de puissantes plateformes DATA à des fins d’usages variés servant toutes les directions métier du groupe bancaire. Pour répondre à ces usages, DAT est au cœur de la stratégie data-centric du groupe bancaire, et intervient aussi bien au niveau de l’architecture Data, sur les dernières technologies data, Big Data, IA, Teradata, SAS, DMP, Oracle ainsi que sur les solutions analytiques et de datavisualisation. La mission consiste à assurer les fonctions suivantes au sein de la Squad Socles Data de la tribu DAT : Veiller au quotidien à la bonne marche des plateformes Data (Teradata et Big Data) Intervenir au quotidien, sous contraintes de délais, lors des incidents d’exploitation (analyse, diagnostic, résolution). Produire le relevé matinal des exécutions des traitements sur les plateformes « Entrepôt et Usages » et « Big Data ». Analyser les actions correctrices à lancer : – court terme (relance rapide) – moyen terme (consignes pour les pilotes de nuit) – long terme (correctifs d’ordonnancement ou de traitements) Créer les incidents selon le process interne (JIRA). Assurer une communication unique pour les deux environnements DATA Vulgariser la communication technico-fonctionnelle auprès des intervenants (équipes internes et métiers). Mettre en place et diffuser les indicateurs de performance et de délais. Mettre en place des états mensuels des incidents et contribuer aux reportings et comités. Analyser les indicateurs d’assurance qualité de données et communiquer auprès des acteurs concernés. Intégrer des méthodes d’amélioration continue Proposer des améliorations du chemin critique en tenant compte des applications sensibles. Maintenir en condition opérationnelle les moyens, dans le respect des normes et critères de performance. Développer des composants d’amélioration. Définir et mettre en place des outils de normalisation, d’automatisation et de sécurisation de la production. Contribuer à la conception de nouveaux projets et évolutions. Contribuer aux états réguliers de contrôle : habilitations, comptes, connexions… Participer aux projets d’optimisation et d’amélioration de la QDF (Qualité de Fonctionnement)
419 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous