L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 777 résultats.
Offre d'emploi
Expert Control-M - H/F
Publiée le
45k-50k €
Paris, France
Ce qui vous attend : La mission se déroule dans une équipe d'expert produit d'ordonnancement. Vos responsabilités : • Maintien en conditions opérationnelles des infrastructures matérielles et logicielles de son domaine • Traitement des incidents et problèmes sur les plates-formes • Participation aux études d'évolution de l'infrastructure (Design) • Ingénierie lors de la construction, installation et paramétrage des plates-formes techniques dans le cadre des projets (BUILD) Installation, paramétrage et validation des composants de l'infrastructure • Coordination des intervenants techniques lors de l'installation • Qualification des plates-formes avant la mise en production • Assurer le bon fonctionnement des plates-formes techniques (RUN) • Garantie de la disponibilité des ressources techniques • Analyse et résolution des incidents de niveaux 2 et 3 • Exploitation des composants techniques et gestion du capacity planning • Diagnostic des dysfonctionnements et proposition de corrections et solutions de contournement • Maintien des infrastructures opérationnelles en visant qualité, productivité et sécurité • Conseil, assistance, information, formation et alerte dans son domaine Conduite de la démarche de progrès et d'amélioration continue : • Propositions de solutions innovantes pour améliorer la fiabilité, la sécurité et l'optimisation de son domaine • Participation active à l'industrialisation • Définition et application des règles de gestion et d'exploitabilité des systèmes ou produits • Garantie de la qualité de service en accord avec les exigences des contrats de services (SLA) de son domaine Référence de l'offre : 3bsnxrazzm
Mission freelance
data analyst GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 mois
100-400 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour, je recherche pour l'un de mes clients un(e) DATA ANALYST GCP . Skills : GCP - BigQuery - anglais Mission : -collecter, nettoyer, structurer et analyser des données provenant de différentes sources GCP -construire des jeux de données fiables et documentés dans BigQuery -concevoir et maintenir des tableaux de bord -optimisation BigQuery -participer à la mise en place de bonnes pratiques de gouvernance de la donnée -contribuer au contrôle qualité N'hésitez pas à revenir vers moi pour des informations complémentaires.
Mission freelance
Expert DATA Gouvernance
Publiée le
Data governance
Gouvernance
6 mois
550-620 €
Île-de-France, France
Télétravail partiel
TEKsystems accompagne son client dans la recherche d'un(e) Expert(e) Gouvernance DATA : Dans le cadre d’un programme de transformation Data , nous lançons un chantier stratégique de gouvernance des données . L’objectif est de définir un cadre de modernisation de la gouvernance Data , en lien avec les enjeux de valorisation des données, de structuration des rôles et responsabilités, et de mise en place de processus robustes. L’expert sera intégré à une équipe projet pilotée par notre direction , en étroite collaboration avec les parties prenantes métiers et IT.
Offre d'emploi
Développeur C# .NET backend Finance (8 ans et plus)
Publiée le
.NET
Finance
3 ans
40k-60k €
400-600 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement Géolocalisation : Ile de France. La mission comporte deux à trois jours de télétravail par semaine. PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : L'application prend désormais en charge différentes classes d'actifs (IR, Inflation, Crédit, FX, Actions, Commo, etc.) et est utilisée par presque tous les secteurs d'activité. Il est capable d'importer/exporter des transactions vers différents systèmes, d'exécuter et de visualiser de nombreux types de risques et d'exposer leurs résultats via des services à d'autres équipes de la Banque pour les aider à atteindre leurs propres objectifs (gestion des risques, reporting, réglementation, etc.). Chaque filière (linéaire, non linéaire, FX, etc.) qui a besoin d'OT dispose de son propre backlog de produit et d'une équipe de livraison dédiée qui a ses propres analystes commerciaux, propriétaires de produits, développeurs et supports. Il y a aussi une équipe Software Factory qui travaille avec toutes les équipes de livraison. Ensemble, ils forment la Communauté Orchestrade.
Offre d'emploi
Développeur c# .NET Back End (8 ans et plus)
Publiée le
.NET
.NET CORE
3 ans
60k-70k €
500-650 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Développeur C# .NET backend SENIOR (de préférence 8 ans d'expérience et plus). Merge de 2 / 3 positions layers utilises par des chaines différentes : XVA, Liquidité (RNFB, NSFR), B/S (Leverage, G-SIB, Gapping). 💡Tech Skills : -Mandatory skills: Software Craftsmanship / Clean code -Back End Skills: C# / .NET 8, ASP .NET, SQL Server, Oracle (Optional), Microservices, Messaging, asynchronous message-driven communication (Rebus), ORM libraries (Dapper), GIT (Bitbucket), TeamCity
Offre d'emploi
Consultant FinOps Data & Monitoring – Cloud Azure (H/F)
Publiée le
Azure
Snowflake
6 mois
Paris, France
Télétravail partiel
Contexte Dans le cadre d’un programme de transformation Cloud, nous recherchons un(e) Consultant FinOps orienté Data & Analyse pour exploiter les données de consommation Cloud et mettre en place des mécanismes de pilotage financier, forecast, supervision et alerting . Le poste est centré sur l’ analyse des données Azure , la réalisation de POC analytiques , et la construction d’indicateurs FinOps permettant d’anticiper les dérives budgétaires. Missions Exploitation et analyse de la donnée Cloud Collecter et analyser les données de consommation Azure et d’outils Cloud/SaaS. Réaliser des analyses exploratoires et POC , notamment via le requêtage KQL , pour comprendre les usages, coûts et dérives potentielles. Structurer et exploiter les données dans Snowflake afin de produire des analyses FinOps exploitables. Pilotage FinOps & forecast Construire des indicateurs FinOps : suivi des coûts, tendances, dérives. Mettre en place des prévisions budgétaires (forecast) basées sur les données de consommation. Contribuer au showback et à l’aide à la décision pour les équipes projets et FinOps. Supervision, monitoring et alerting Définir et implémenter des règles de monitoring et d’alerting sur les dérives financières. Mettre en place une surveillance liée à la juste consommation des ressources Cloud. Alimenter les outils de reporting et de visualisation (dashboards). Contribution aux activités FinOps Participer au suivi des coûts et au support des équipes projets. Identifier des opportunités d’optimisation et contribuer aux plans de remédiation. Maintenir et faire évoluer les reportings FinOps existants.
Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS
Publiée le
Azure
BI
DevOps
24 mois
300-600 €
Nanterre, Île-de-France
Télétravail partiel
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Mission freelance
DATA ARCHITECTE GCP
Publiée le
Google Cloud Platform (GCP)
3 mois
400-650 €
Paris, France
· Architecture technique : o Garantir le respect des normes et la cohérence de la stack technique entre les différentes équipes o Contribuer et s’assurer de la mise en place de contrats d’interface entre les différentes équipes o Connaître les standards du marché et assurer une veille technologique o Participer aux tests et à l’introduction de nouvelles technologies o Comprendre et auditer l’architecture existante afin de proposer des améliorations · Developer expérience : o Contribuer à l’écriture de nouveaux modules Terraform o Accompagner les équipes dans leur montée en compétence de l’Infrastructure as Code et des nouvelles technologies o Définir les standards concernant les équipes de développement, en particulier sur la CI/CD · FinOps : o Mettre en place un plan de suivi du budget par équipe o Implémenter les outils de monitoring (alertes, seuils, etc.) o Identifier les optimisations et contribuer à leur priorisation
Mission freelance
LEAD DATA SCIENTIST GCP (550 MAX)
Publiée le
Google Cloud Platform (GCP)
1 an
400-550 €
Île-de-France, France
Télétravail partiel
Pilotage Technique & Architecture : Concevoir l'architecture des briques algorithmiques (Clustering, Prévision de ventes, Optimisation sous contraintes) sur GCP. ● Développement algorithmique (Hands-on) : Coder les modèles complexes, notamment l'algorithme d'optimisation (Recherche Opérationnelle) pour respecter les contraintes magasins (linéaire, supply, mix marge/CA). ● Coaching & Code Quality : En support éventuel de notre Lead Data Scientist interne, encadrer les Data Scientists séniors, garantir les bonnes pratiques (CI/CD, DVC, Tests) et l'industrialisation via Airflow/Composer. ● Mesure de la performance : Mettre en place des méthodologies robustes (ex: Causal Impact) pour mesurer les gains business (CA/Marge) post-déploiement. ● Excellente maîtrise de SQL, avec une forte expérience sur BigQuery et une bonne connaissance des bases de données SQL/NoSQL (PostgreSQL, MongoDB, DBL…). ● Modélisation et préparation des données : conception de pipelines optimisés dans BigQuery, en garantissant la qualité, la fiabilité et la cohérence des analyses. ● Connaissance des architectures data modernes (Data Lake, Data Warehouse) et des environnements Cloud (GCP, AWS, Azure). ● Maîtrise des outils de CI/CD avec GitLab CI, et des pratiques de gestion de version (Git). ● Compréhension des principes DevOps, avec une vision orientée fiabilité et amélioration continue. ● Bonne maîtrise des méthodologies agiles, notamment Scrum, Sprint Planning et Backlog
Mission freelance
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF/3 jours TT
Publiée le
Machine Learning
Python
6 mois
410-550 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF Compétences attendues : Pipeline de données et de machine learning Compétences en programmation (Python, Pydantic, PymuPDF) Compétences sur les services d’IA d’AWS (sagemaker) et des services AWS (StepFunction, Lambda, SQS, CloudWatch, Textract…) Compétences en computer Vision par réseaux de neurones Outils de DevOps et de Cloud Computing (Terraform) Processus CI / CD Outils d’automatisation Méthodologies agiles (Jira, Confluence, Kanban, Scrum…) Connaissance des principaux LLM dont les modèles Gemini Compétences en optimisation sous contraintes et connaissance d’outils comme ORTools Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Minimum 3 ans d’expérience Profils expérimentés (3 à 7 ans d’expérience) Profils senior (7 ans et +) Missions : Détection d’opportunités IA/ML et contribution à des preuves de concept (POC) (Identifier et analyser des opportunités IA/ML, concevoir et documenter des POC fonctionnels, puis présenter et évaluer leur valeur métier et robustesse auprès des parties prenantes.) Développement de fonctionnalités de Machine Learning et d'IA (Concevoir et valider l’architecture SI, collaborer avec l’équipe produit pour intégrer des fonctionnalités IA/ML, livrer des incréments industrialisables et contribuer à la documentation technique et produit.) Industrialisation et standardisation des pratiques IA / MLOps (Intégrer et déployer des modèles IA avec des formats standard, optimiser leur performance et coût, assurer le monitoring et les mises à jour, contribuer aux pratiques MLOps et réaliser une veille technologique en ML/IA.)
Mission freelance
DEVELOPPEUR(SE) BACK - Confirmé (4-10 ans) (H/F)
Publiée le
.NET
Python
SQL
261 jours
400-440 €
Châtillon, Île-de-France
Télétravail partiel
La mission portera principalement sur la conception, le développement et la maintenance de processus automatisés, avec un focus particulier sur l’exploitation des outils RPA, ainsi que la capacité à s’intégrer dans des environnements data avec Python et SQL. -Concevoir, développer, tester et maintenir des processus automatisés -Assurer le support, la maintenance et l'optimisation des robots existant sous UI Path ou Automation Anywhere -Participer à l’intégration des solutions RPA dans l’écosystème SI via des connecteurs, APIs, traitements de données. -Définir et modéliser des workflows optimisés, maintenables et documentés. -Rédiger et maintenir la documentation technique et fonctionnelle. -Collaborer étroitement avec les référents MOA/MOE pour le cadrage et la validation des automatisations. ANALYSE Participe à l'analyse fonctionnelle détaillée des besoins utilisateurs et peut être sollicité pour des ateliers de définition des spécifications générales Étudie les opportunités et la faisabilité technologique de l'application, réalise l'analyse technique, l'étude détaillée et contribue à l'estimation des charges CONCEPTION ET DÉVELOPPEMENT Contribue au design du logiciel et des frameworks utilisés dans le cadre du projet Adapte et applique les paramètres techniques des progiciels ou des middlewares Réalise le prototypage Analyse et développe les composants en utilisant les langages appropriés Participe à la structuration des Bases de Données Participe à la revue croisée des développements de ses pairs Initialise le dossier d'exploitation Assemble les composants unitaires dans un package applicatif cohérent destiner au déploiement de la solution et l'intègre à la gestion de configuration Documente les applications pour les développements ultérieurs et la Mise en Production (MEP) Harmonise et industrialise l'ensemble des composants et applications Utilise les composants logiciels réutilisables et met à jour la nomenclature RECETTE UNITAIRE ET TESTS D'INTÉGRATION Responsable des tests unitaires : élaboration des jeux d'essais et réalisation Teste, identifie et traite les dysfonctionnements éventuels du logiciel développé Vérifie la conformité de l'ouvrage avec la demande formulée Contribue à la préparation et à la réalisation des tests d'intégration Analyse les résultats et rédige le rapport de tests. MAINTENANCE Réalise les développements nécessaires à la maintenance corrective et évolutive Participe à l'analyse et à la résolution des incidents de production.
Offre d'emploi
DEVELOPPEUR(SE) DEVOPS - Expert (>10 ans)
Publiée le
Go (langage)
Grafana
Prometheus
12 mois
55k-65k €
500-600 €
Île-de-France, France
Télétravail partiel
La mission consiste à effectuer, sur le périmètre de la supervision réseau : - Des tâches de MCO - Administrer l'existant maison et éditeur - Assurer des développements autour des solutions et outils ci-dessous. Les compétences clés recherchées : - Expertise exigée sur le soutils suivants : Grafana, Prometheus, Victoria Metrics sur environnements Linux et Windows - Connaissances des exporters SNMP, ICMP et réseaux nécessaires. - Langages à maîtriser : Python (requests, flask, grafanalib, grafana-api, pandas, glob, tqdm, numpy), Go. ANALYSE: Participe à l'analyse fonctionnelle détaillée des besoins utilisateurs et peut être sollicité pour des ateliers de définition des spécifications générales Étudie les opportunités et la faisabilité technologique de l'application, réalise l'analyse technique, l'étude détaillée et contribue à l'estimation des charges CONCEPTION ET DÉVELOPPEMENT: Contribue au design du logiciel et des frameworks utilisés dans le cadre du projet Adapte et applique les paramètres techniques des progiciels ou des middlewares Réalise le prototypage Analyse et développe les composants en utilisant les langages appropriés Participe à la structuration des Bases de Données Participe à la revue croisée des développements de ses pairs Initialise le dossier d'exploitation Assemble les composants unitaires dans un package applicatif cohérent destiné au déploiement de la solution et l'intègre à la gestion de configuration Documente les applications pour les développements ultérieurs et la Mise en Production (MEP) Harmonise et industrialise l'ensemble des composants et applications Utilise les composants logiciels réutilisables et met à jour la nomenclature RECETTE UNITAIRE ET TESTS D'INTÉGRATION: Responsable des tests unitaires : élaboration des jeux d'essais et réalisation Teste, identifie et traite les dysfonctionnements éventuels du logiciel développé Vérifie la conformité de l'ouvrage avec la demande formulée Contribue à la préparation et à la réalisation des tests d'intégration Analyse les résultats et rédige le rapport de tests MAINTENANCE: Réalise les développements nécessaires à la maintenance corrective et évolutive Participe à l'analyse et à la résolution des incidents de production
Mission freelance
Consultant Master Data SAP (Migration ECC → S/4HANA) (H/F)
Publiée le
SAP ECC6
6 mois
400-550 €
Bourges, Centre-Val de Loire
Télétravail partiel
Nationalité : Française obligatoire Mobilité : 2×3 jours/mois à Bourges , Le reste en IDF / Le Plessis-Robinson Langues : Anglais professionnel TJM max : 550€ Démarrage : ASAP DESCRIPTIF DE LA MISSION – Consultant Master Data SAP (Migration ECC → S/4HANA) 🎯 Informations générales Localisation : 2×3 jours par mois sur site à Bourges , le reste en Île-de-France (Le Plessis-Robinson / IDF). Démarrage : ASAP Nationalité : Française obligatoire Durée : 6 mois (renouvelables) Rythme : 3 jours sur site / 2 jours télétravail TJM max : 550 € Langue : Anglais professionnel 🧭 Contexte de la mission Dans le cadre du projet de migration du système d'information SAP , le client recherche un Consultant Master Data SAP pour accompagner la transition complète des données ECC → S/4HANA . La mission inclut toutes les activités de préparation, nettoyage, transformation et migration des données , avec un focus particulier sur : les Master Data Manufacturing (articles, BOM, gammes, objets techniques), les Business Partners , les données qualité et traçabilité , ainsi que l’utilisation intensive des outils LSMW , Mass Update et outils de Data Cleansing . Le consultant travaillera au quotidien avec les SMEs (experts métier), les équipes IT et les coordinateurs SAP pour garantir la fiabilité , la qualité et la complétude des données migrées. 🛠️ Rôle & Responsabilités 🔹 Migration ECC → S/4 Préparer, transformer et charger les données dans le cadre de la migration. Utiliser les outils de migration : LSMW , Mass Update , scripts, templates. Exécuter des reprises de données complexes. 🔹 Data Cleansing / Data Quality Utiliser CleanScene / CleanseIT pour le nettoyage des données. Identifier les incohérences, doublons, champs manquants, formats non conformes. Suivre la résolution des anomalies avec les métiers. 🔹 Gestion des Master Data Manufacturing Le consultant interviendra sur l’ensemble des objets MDM industriels, notamment : Articles / Matériaux Objets techniques Gammes Nomenclatures (BOM) Données PP / PPDS / Ordres de production Besoin indépendants Business Partners, clients, fournisseurs Données Qualité & Traçabilité 🔹 Coordination & documentation Participer à la rédaction et l’ajustement des FSD (sans en assurer la validation). Solliciter les métiers (SME) pour la validation des règles fonctionnelles. Contribuer à la préparation des phases de test (UAT) et de bascule finale . 🔹 Production de reporting technique Le consultant devra produire du reporting opérationnel pour les métiers : Power BI SQ01 / SQ02 (reports SAP) CDS Views exploitées sous Fiori SAP Analysis for Office (AFO / DAEM) 🧩 Profil recherché 🎓 Compétences indispensables Expérience concrète sur projets SAP ECC / S/4HANA . Très bonne maîtrise des outils de migration : LSMW , Mass Update , Data Cleansing (CleanScene / CleanseIT). Connaissance approfondie des Master Data Manufacturing. Aisance confirmée sur les objets PP / PPDS / PO. Expérience en création de reporting SAP (Power BI, SQ01/02, CDS Views, AFO). Habitude de travailler avec SMEs, IT, intégrateur SAP. Anglais professionnel. 🌟 Soft Skills Rigueur & précision Forte capacité d’analyse Communication transverse Capacité à challenger les règles métier Autonomie et proactivité ⭐ Compétences clés Master Data ECC / S4 – Manufacturing & Quality LSMW / Mass Update / Migration Cockpit CleanScene / CleanseIT Gammes, BOM, objets techniques PP / PPDS / PO Power BI, SQ01/SQ02, CDS Views, AFO Interaction métier / coordination SME / IT
Mission freelance
Data Analyst Social Listening ( 4 ans xp)
Publiée le
Data analysis
IA Générative
120 jours
400-480 €
Paris, France
Télétravail partiel
Contexte de la prestation : La prestation s’inscrit au sein de la Direction de la Communication Digitale de France Télévisions. Elle vise à conduire des analyses quantitatives et qualitatives relatives à la réputation du groupe sur les réseaux sociaux et le web. Le prestataire travaillera en lien étroit avec l’équipe communication digitale et contribuera au pilotage opérationnel de la veille, de l’analyse et des recommandations stratégiques. Missions : 1. Veille et suivi en temps réel : > Assurer une veille continue, réactive et structurée des conversations sur les réseaux sociaux et le web via des outils de social listening. > Surveiller en temps réel les signaux faibles, les sujets sensibles et les potentiels sujets de crise. > Effectuer la veille en direct lors d’émissions diffusées en soirée. 2. Analyse et production de livrables > Produire des notes d’analyse synthétiques et rapides : - Notes quotidiennes - Notes mensuelles - Analyses thématiques - Notes ad hoc selon actualité - Effectuer des études réputationnelles dans le cadre de campagnes ou dispositifs de marketing d’influence. 3. Recommandations et accompagnement stratégique - Construire des recommandations éditoriales et stratégiques à destination de la Direction de la Communication Digitale et d’autres directions internes. - Proposer des pistes d’amélioration ou d’optimisation des dispositifs de communication digitaux. 4. Collaboration interne - Travailler en étroite collaboration avec l’équipe communication digitale et contribuer à la coordination lors des sujets urgents ou sensibles. Expertises et compétences requises : > Expérience - Minimum 1 an d’expérience dans le secteur des médias et/ou du secteur public. - Minimum 5 ans d’expérience en social listening, incluant l’analyse de données conversationnelles.
Mission freelance
Administrateur de plateforme Big Data
Publiée le
Apache Kafka
Elasticsearch
HDFS (Hadoop Distributed File System)
3 ans
Paris, France
Télétravail partiel
Vous interviendrez pour un grand acteur du secteur de l’énergie, au sein d’une prestation pluridisciplinaire. Votre rôle sera de gérer, maintenir et optimiser les plateformes Big Data afin d’assurer leur performance et disponibilité. Vous travaillerez en étroite collaboration avec les équipes de développement et les analystes de données. 4. Missions principales Gérer et maintenir les plateformes de données massives. Optimiser les performances des systèmes Big Data. Assurer la qualité et la sécurité des données. Collaborer avec les équipes de développement pour intégrer les solutions de données. Surveiller et maintenir les systèmes en production. Analyser les besoins en données et proposer des solutions adaptées.
Offre d'emploi
Tech Lead Data
Publiée le
Méthode Agile
1 an
40k-56k €
400-550 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Nous recherchons un expert Data IT pour accompagner la migration des projets vers le Cloud interne et soutenir les équipes de développement dans l’adoption des bonnes pratiques de développement , en intégrant les enjeux de sécurité et de gouvernance des données . Il contribuera à la mise en place d’automatisation et d’industrialisation selon les principes DevSecOps , participera aux chantiers d’amélioration continue et au monitoring transverse, tout en intervenant dans les premières implémentations de solutions Gen AI appliquées à la donnée . Acteur clé de la stratégie Data France , il apportera conseil et expertise auprès des squads, animera des sessions de formation et mènera des études d’optimisation des services de l'équipe Data . Une veille technologique active et la maîtrise de l’environnement Big Data Hadoop ainsi que du développement SPARK SCALA sont indispensables pour ce poste.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Compte dédié micro-entreprise
- Utiliser Qonto pour créer la microentreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Entretiens et tests techniques developpeurs Java Angular junior
2777 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois