L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 553 résultats.
Offre d'emploi
Data Engineer AWS / Spark / Scala /Python
Publiée le
Apache Spark
PySpark
Scala
1 an
40k-56k €
400-600 €
Paris, France
Télétravail partiel
Bonjour ☺️ Nous recherchons un DATA ENGINEER orienté sur les technologies SPARK / SCALA / PYTHON/ AWS pour le compte de notre client ! Mission : Maintenir la plateforme en conditions opérationnelles : Garantir la disponibilité des données et des services de la plateforme, Assurer la communication avec les utilisateurs de la plateforme, Répondre aux demandes de données (données ad hoc, analyses d’anomalies), Développer les correctifs et évolutions nécessaires, Contribuer à la qualité des données et à l’industrialisation de leur exploitation. Concevoir et développer des services et pipelines de données fiables et performants : Mettre en place des flux de données (acquisition, transformation, export), Concevoir et modéliser les données, Développer et optimiser les pipelines de transformation, Réaliser les tests unitaires et d’intégration, Garantir la qualité des développements via les revues de code, Ordonnancer et gérer les dépendances entre traitements, Déployer sur l’ensemble des environnements, Enrichir et maintenir la documentation de la plateforme. Profil recherché : Minimum 5 ans d'expériences dans un contexte de grande volumétrie de données, Capacité à collaborer avec une pluralité d'interlocuteurs en même temps, Excellent esprit d’équipe, Capacité d'adaptation, Maitrise impérative de : Spark Scala, Python et SQL, Expérience significative sur AWS. Apprécié : Connaissance de Dataiku, Méthodologie Scrum/Safe, Airflow N'hésitez pas à envoyer votre CV !
Offre d'emploi
Expert FONCTIONNEL Cyber & Protection des Données – IA / GenAI / Azure (Niveau 3)
Publiée le
Azure
Azure AI Foundry
Gestion des risques
3 ans
94120, Fontenay-sous-Bois, Île-de-France
Télétravail partiel
Nous recherchons un expert cybersécurité fonctionnel spécialisé IA / GenAI pour renforcer une équipe sécurité dédiée aux usages avancés de l’IA au sein d’un grand groupe international du secteur financier. 🎯 Vos responsabilités Cadrage & gouvernance sécurité IA / GenAI Participation aux comités projets IA Définition des exigences sécurité (prompt injection, poisoning, fuite de données, abus de privilèges…) Priorisation des projets IA à fort risque cyber Accompagnement des équipes tech & métiers Interaction directe avec architectes, data scientists, devs, product owners Contribution aux décisions d’architecture sur l’écosystème Microsoft : Azure AI, Cognitive Services, Azure ML, M365 / Copilot, Fabric, Power Platform Prise en compte des intégrations data (ex. plateformes cloud/data type Snowflake) Contribution aux documents & référentiels Dossiers de sécurité GenAI Analyses de risques LLM Blueprints & modèles d’architecture sécurité Exigences / spécifications sécurité (DAT, DAH, HLD/LLD, policies…) Playbooks & guidelines LLM / GenAI Reporting, KPIs, plans de remédiation
Mission freelance
Chef de projet référentiel Power BI- Nantes
Publiée le
Active Directory
JIRA
Microsoft Power BI
1 an
400-550 €
Nantes, Pays de la Loire
Télétravail partiel
L’objectif de cette consultation est de maintenir un référentiel sous Power BI permettant de suivre l’utilisation et l’état des équipements déployés dans différents sites. Ce dispositif doit offrir une vision globale du parc matériel et des incidents associés. Il s’agira également de contribuer à la gestion des incidents, au suivi des déploiements et à la remontée des faits marquants. Environnement et conditions techniques Power BI Windows 10, Windows 11 et outils d’administration • Active Directory • Office 365, Teams • Jira
Mission freelance
Ingénieur étude décisionnel Datastage / Power BI
Publiée le
Teradata
Test unitaire
Ticketing
18 mois
150-400 €
Paris, France
Contexte du besoin le client dans le cadre de son activité Décisionnel, recherche un profil en développement Datastage / Power BI afin d'intégrer l'équipe développement Expérimenté (profil ayant une expérience de 3 à 7 ans dans la même famille de prestations, sur justification des références clients) renforcement de l'équipe de développement avec l'intégration d'une resource maitisant la partie alimentation (ods, dwh, datamart) et la partie restitution avec l'outil Power BI, . Fort de ses expériences techniques sur cette technologie, le prestataire devra également montrer ses connaissance des méthodes Agiles (plus particulierent SCRUM ) MISSIONS Rattaché au responsable développement du SI Décisionnel, l'intervenant aura pour principales missions : - Développement de programme dataware, datamart (Datastage et SQL) - Développement de dataset, dataflow et rapports sous l' outil Power BI - Test unitaire et livraison - Respect des normes et bonnes pratiques au sein du SID - Prise en compte d'anomalie, d'évolution en lien avec le BE et la qualification - Optimisation de requêtes SQL Technologie ou les certifications attendues : POWER BI dans un environnement Datastage Teradata, et PostgreSQL Définition des prestations attendues : Prestation de développement en coordination avec équipe BE , qualification et scrum master Environnement technique - technologique "ETL/ELT/Traitement : Datastage/SQL Restitution : PowerBI (dataset, dataflow, rapports) Stockage : Teradata, PostgreSQL" Compétences techniques Connaissance d'ETL/ELT décisionnel : DATASTAGE plus particulièrement Requêtage SQL Développement de restitution Décisionnel POWER BI (Dataset, dataflow, rapports) Méthode SCRUM & Manipulation d’un gestionnaire de ticketing (type JIRA) Compétence métiers Expérience dans l'écosystème de la protection sociale Retraite Complémentaire des salariés du privé idéalement
Offre d'emploi
Consultant BI / Data ANALYST (Cognos , SQL , Snowflake , ETL/ELT ) (H/F)
Publiée le
BI
Cognos
Microsoft Power BI
12 mois
40k-45k €
400-550 €
Paris, France
Dans le cadre de la modernisation de son écosystème Data, notre client déploie une nouvelle plateforme basée sur Azure , intégrant Snowflake et Power BI . Ce projet s’inscrit dans une démarche globale de transformation visant à migrer un volume important de rapports existants provenant d’un ancien environnement on-premise (Datawarehouse + Cognos) vers une infrastructure Cloud plus performant Contexte Dans le cadre de la mise en place d’une nouvelle plateforme Data sur Azure, intégrant Snowflake et Power BI , notre client du secteur bancaire lance un vaste chantier de migration de l’ensemble de ses rapports existants depuis une plateforme on-premise (Datawarehouse + Cognos) vers ce nouvel environnement Cloud. Environ 250 rapports ont été identifiés comme prioritaires. Ils sont principalement utilisés au quotidien par les équipes métiers (recouvrement, fraude, contrôle interne, etc.) via un portail interne. Ces rapports étant essentiels à l’activité opérationnelle, l’objectif est de les reproduire à l’identique , sans refonte fonctionnelle, pour respecter les échéances fixées à août 2025 . Les choix finaux concernant le modèle (datamarts dédiés, vues sur datamart global, etc.) et l’outil de restitution sont encore en cours de définition, et le consultant pourra contribuer à ces orientations. Mission Vous participerez à la reconstruction des rapports sur la nouvelle plateforme Data. Vous travaillerez en étroite collaboration avec deux experts internes (Datawarehouse & Cognos). Vos principales responsabilités :1. Analyse des rapports Cognos existants Étude des frameworks, champs, règles de gestion, filtres et logiques de calcul. 2. Recréation des rapports dans Snowflake / Power BI Construction des couches nécessaires dans Snowflake avec les Data Engineers / Analysts. Création éventuelle de dashboards Power BI (cas limités). 3. Validation et contrôle de qualité Comparaison des résultats Snowflake avec les rapports Cognos. Investigation des écarts avec les référents internes (métier, Data Office, DSI). 4. Documentation Documentation des tables/vues créées (Excel pour alimenter Data Galaxy). Définition et rédaction de la documentation fonctionnelle liée aux rapports.
Mission freelance
[SCH] Développeur COBOL / Data Mainframe - 1105
Publiée le
10 mois
350-400 €
Courbevoie
Dans le cadre du renforcement des équipes Mainframe, nous recherchons 2 Développeurs COBOL orientés Data pour intervenir sur des évolutions applicatives et la maintenance du patrimoine en production. Mission longue sur site client (banque). Missions : -Analyse d’impacts suite aux demandes projets -Rédaction des spécifications techniques (accès aux données, mappings…) -Suivi ou réalisation des développements Mainframe COBOL -Tests unitaires & tests d’intégration -Livraisons en environnement de recette -Respect des normes qualité, documentation et méthodes internes
Mission freelance
Consultant Expert Data IA
Publiée le
Powershell
SAS
1 an
550-600 €
Paris, France
Télétravail partiel
Je suis à la recherche pour un de nos clients d'un Consultant Expert Data IA. Programmation SAS niveau avancé Scripting : Powershell, Batch, Shell Connaissance de méthodologies de parsing Benchmark, bonnes pratiques sur les besoins en Data pour une IA, modèles IA (création/réutilisation, entrainement, évaluation métier, finops et projection, contraintes bancaires et cyber sur l'IA, interconnexions de produits IA majeurs pour structurer les bons travaux à lancer en priorité pour des livraisons fréquentes et cohérentes)... Tâches : Construire la feuille de route du stream Data IA avant fin 2025 pour certains projets transformants notamment dans la thématique Marketing en collaboration avec les bon acteurs du Client dans le PP Data et au delà.
Mission freelance
Data Engineer Sénior (5 ans d’expérience minimum)
Publiée le
Azure
12 mois
380 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Description du poste : Nous recherchons un Data Engineer autonome disposant d’au moins 5 ans d’expérience, capable de collecter, analyser et exploiter les données pour améliorer le pilotage des activités et identifier les leviers de création de valeur. Le consultant accompagnera également les équipes métier dans le développement, le déploiement et l’exploitation de solutions data afin d’atteindre leurs objectifs. Missions principales : – Collecter, préparer et structurer les données pertinentes pour les besoins des utilisateurs. – Construire et optimiser des pipelines ETL/ELT robustes et performants. – Analyser les données et produire des visualisations accessibles via les outils décisionnels. – Proposer des recommandations et lignes directrices pour créer de la valeur au sein des activités métier. – Accompagner l’optimisation des offres, services et processus grâce à l’analyse et l’évaluation des données. – Garantir la conformité aux règles d’éthique et de gouvernance du groupe. – Présenter les fonctionnalités des produits data et faciliter leur maintenance. – Réaliser des tests conformément à la stratégie définie. – Maintenir à jour le catalogue des produits data (datasets). – Fournir des kits de formation et des outils pour les utilisateurs. Résultats attendus : – Identification et sélection des données pertinentes pour les besoins opérationnels. – Optimisation du temps, des ressources et des outils dédiés à l’analyse de données. – Production de jeux de données et visualisations compréhensibles et accessibles. – Mise à disposition de recommandations métier génératrices de valeur. – Amélioration des processus, services et offres grâce aux analyses. – Application stricte des règles de gouvernance et d’éthique data. – Tests réalisés et conformes aux exigences. – Catalogue des datasets à jour. – Mise à disposition de supports et kits de formation pour les utilisateurs. Compétences requises en Data Engineering : – Modélisation de données : modèles relationnels, dimensionnels, Data Vault. – ETL / ELT : conception, optimisation et gestion des dépendances. – Gouvernance et qualité de données : data lineage, qualité, catalogage, gestion des métadonnées. – Architecture data : maîtrise des patterns modernes (Data Lakehouse, Data Mesh…). Langages : – SQL avancé – Python avancé – PySpark avancé Outils et technologies : – Dataiku – Power BI – Databricks – Azure Data Factory – Azure Logic Apps
Offre d'emploi
Chef(fe) de Projet Data / CDP – Activation & CRM
Publiée le
CRM
Data analysis
1 an
51k-59k €
510-580 €
Île-de-France, France
Télétravail partiel
Nous recherchons un(e) Chef(fe) de Projet Data expérimenté(e) pour piloter et optimiser les cas d’usage d’activation marketing et CRM dans un environnement riche en données utilisateurs. Vous interviendrez sur l’exploitation d’une Customer Data Platform (CDP) et sur la mise en place de projets transverses autour de la collecte, de l’activation et de la gouvernance de la donnée. Vos missions 1. Pilotage des besoins CRM & Activation Challenger les besoins métiers (Email & Push) et les traduire en projets Data. Créer et optimiser les segments d’audience, flux de données et collectes. Animer les points hebdo avec les équipes métiers. Proposer de nouveaux cas d’usage basés sur les features CDP et les nouvelles données collectées. 2. Gestion opérationnelle de la CDP Participer au run et à l’amélioration continue de la CDP. Créer et suivre les segments, dashboards de data quality & insights. Définir et maintenir les plans de marquage. Suivre la bonne implémentation de la collecte (recettes, correctifs). Rédiger et maintenir les documentations fonctionnelles et techniques. Assurer la coordination avec l’éditeur de la CDP. 3. Gestion de projets Data Animer ateliers, cadrages et comités de pilotage. Coordonner Data, Tech, Produit, CRM, RGPD, Marketing, Offres… Garantir l’avancée des projets, la qualité des livrables et les indicateurs de performance. Mesurer, communiquer et optimiser la performance des cas d’usage. 4. Documentation & Roadmap Rédiger les spécifications fonctionnelles, CR, supports projet. Contribuer à la roadmap et au référentiel de segments. Documenter les cas d’usage et leurs performances. 5. Amélioration continue & innovation Force de proposition sur les méthodologies projet (alertes, risques, arbitrages…). Proposition de nouveaux cas d’usage, collectes ou développements exploratoires.
Mission freelance
Coordinateur Anomalies & Tests RUN SI
Publiée le
Data analysis
Dynatrace
JIRA
24 mois
Paris, France
Télétravail partiel
Poste : Pilotage de projet ou de programme en Assistance Technique, taux journalier Spécialités technologiques : BI, Reporting Secteur d'activité : Assurance Technologies et outils : Jira, Excel (niveau avancé), Power BI, Dynatrace Description de la mission : Renforcer la tour de contrôle opérationnelle pour un nouveau Système d’Information complexe, en assurant le suivi, l’analyse et la coordination du traitement des anomalies et incidents, en lien avec les équipes de tests, production et responsables de chantiers. La mission est opérationnelle, orientée qualité, incidents, remédiation et respect des plannings, sans rôle de PMO. Objectifs : Garantir une prise en charge efficace des anomalies détectées en tests et RUN Sécuriser les plannings de livraison via une maîtrise fine des incidents Assurer une coordination fluide entre tests, production et chantiers Fournir une vision consolidée et actionnable de l’état des anomalies Missions principales : Pilotage et suivi des anomalies : création, qualification, priorisation Analyse des incidents du jour, stock d’anomalies, criticité et impact sur livraisons Consolidation des anomalies et indicateurs dans des outils de pilotage Coordination entre tests et production, en assurant la cohérence avec le planning Coordination avec les chefs de chantiers : prise en charge, remédiation, suivi et animation d’instances Formalisation et diffusion des comptes-rendus et PV, suivi des délais de correction Production de tableaux de bord et synthèses (ex. Excel, Power BI) Animation des communautés opérationnelles (niveau 2) Livrables attendus : Analyse quotidienne des incidents Analyse consolidée du stock d’anomalies Tableaux de bord de suivi des délais, criticité, avancement Comptes rendus des instances de coordination Suivi des plans de remédiation Environnement technique : Jira pour le suivi des anomalies, Excel (niveau avancé), Power BI pour l’analyse et le reporting, Dynatrace pour la supervision et performance.
Mission freelance
Expert DATA Gouvernance
Publiée le
Data governance
Gouvernance
6 mois
550-620 €
Île-de-France, France
Télétravail partiel
TEKsystems accompagne son client dans la recherche d'un(e) Expert(e) Gouvernance DATA : Dans le cadre d’un programme de transformation Data , nous lançons un chantier stratégique de gouvernance des données . L’objectif est de définir un cadre de modernisation de la gouvernance Data , en lien avec les enjeux de valorisation des données, de structuration des rôles et responsabilités, et de mise en place de processus robustes. L’expert sera intégré à une équipe projet pilotée par notre direction , en étroite collaboration avec les parties prenantes métiers et IT.
Offre d'emploi
Architecte Technique Data Expert Technique - Architecture Data & Cloud (H/F)
Publiée le
Gitlab
18 mois
40k-45k €
110-600 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Architecture technique, Sécurité, Méthode, Expert technique Spécialités technologiques : Cloud, Infrastructure & Cloud, Devops, Gouvernance des données, IAM Compétences Technologies et Outils AWS CI/CD Spark Terraform Python Docker Kinesis Amazon Kubernetes Gitlab Description et livrables de la prestation Le poste d'Architecte Technique Data Expert Technique, également de niveau Expérimenté ou Sénior, a pour mission d'assurer la validité technique et l'alignement des architectures Data avec les standards définis dans le cadre du Programme Vision 2035. En tant que référent technique, vous interviendrez en amont au sein des équipes CAPVISION (méthodologies Capvision, Découverte, Zoom) pour définir les architectures cibles et garantir leur cohérence au sein de l'écosystème SI existant. Vos responsabilités englobent la définition des architectures Cloud (performance, résilience), la mise en œuvre de la gouvernance des données (Dataviz, Datamesh), et la sécurisation des données. Compétences et Technologies (Focus Technique) : Ce rôle requiert une expertise en architecture Data et Cloud (Niveau 4). La maîtrise des outils de gouvernance de la donnée tels que Dataviz et Datamesh est primordiale (Niveau 4). Une expertise est demandée sur la gestion de la sécurité du SI, notamment la gestion des accès (IAM) et les mécanismes de protection des données (Niveau 4). De solides connaissances en intégration et déploiement continus (CI/CD) sont requises (Niveau 4). Techniquement, vous utiliserez Python et Spark. Les services Cloud spécifiques comprennent AWS IAM, Amazon Kinesis, AWS Lake Formation, AWS S3, ainsi que les outils d'industrialisation AWS, Gitlab CI, Docker, Kubernetes et Terraform. Expertise souhaitée Architecte Technique Data Expert Technique
Mission freelance
EXPERT TECHNIQUE CYBER SECURITE & DEVSECOPS GENAI
Publiée le
Azure DevOps
Copilot
Cybersécurité
1 an
400-680 €
Île-de-France, France
Télétravail partiel
Les expertises attendues pour réaliser cette prestation sont listées ci-après : • Sécurité opérationnelle sur Microsoft 365, Azure Cognitive Services, Copilot, Fabric, Power Platform, Azure ML • Maîtrise des outils de DevSecOps : CI/CD sécurisés, IaC (Terraform, Bicep), Sentinel, Defender for Cloud, Purview • Expertise sur la sécurisation des tenants Azure, souscriptions, RBAC, MFA, Conditional Access, Privileged Identity Management • Expérience terrain sur le design et le déploiement de contrôles de sécurité dans des environnements AI hybrides • Connaissance des risques spécifiques liés aux LLM et aux services GenAI (prompt injection, data leakage, model poisoning) • Références : missions pour des groupes bancaires et industriels sur la sécurisation de plateformes GenAI Microsoft • Compétences complémentaires : scripting (PowerShell, Python), analyse de logs, automatisation de contrôles de sécurité
Mission freelance
Data Scientist - (h/f)
Publiée le
12 mois
400-450 €
69000, Sainte-Foy-lès-Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ce poste vise à exploiter les données grâce à des modèles statistiques et des analyses avancées afin de faciliter des décisions commerciales éclairées et d’optimiser les résultats. Responsabilités : Développer des modèles statistiques et des algorithmes en utilisant une approche expérimentale et de découverte. Exécuter une modélisation avancée des données pour extraire des insights et des prédictions. Créer une chaîne analytique complète incluant la transformation, la structuration, la modélisation, la visualisation et l’obtention d’insights exploitables. Utiliser divers outils et méthodes pour appliquer des analyses avancées aux défis métier et optimiser les résultats. Compétences : Maîtrise de la modélisation statistique et des algorithmes. Expérience dans l’exécution de modèles de données avancés. Solides compétences en transformation et visualisation des données. Capacité à créer des insights exploitables à partir des données. Bons à avoir : • Familiarité avec les techniques d’apprentissage automatique. • Expérience avec des outils de visualisation de données comme Tableau ou Power BI. • Connaissance des stratégies d’optimisation métier.
Mission freelance
Data Analyste énergie flux ETL/ELT : Localisation : Saint-Denis/ko
Publiée le
ETL (Extract-transform-load)
6 mois
400-420 £GB
Saint-Denis, Île-de-France
Télétravail partiel
Data Analyste énergie flux ETL/ELT : Localisation : Saint-Denis Date de début : 05/01/2026 Data Analyst expérimenté , idéalement avec expérience dans : la qualité et fiabilisation des données , les flux ETL/ELT ou intégrations multi-sources, le domaine énergie (ENEDIS/GRDF, compteurs, data énergie bâtimentaire) serait un plus, rédaction d’expressions de besoins, interactions avec DSI, compréhension architectures data. Compétences clés : SQL, ETL/ELT, gouvernance data, structuration et documentation des données, contrôle qualité, architecture fonctionnelle simple. Objectif de la mission Assurer la mise en qualité de la donnée énergétique et mettre en place les flux de data entre les outils internes de gestion de l’énergie (ConsoNG, eVision, Portail de Management de l’Énergie…). Périmètre opérationnel Le consultant interviendra sur : Définition et documentation des nomenclatures de compteurs et sous-compteurs Intégration de nouveaux objets énergétiques dans ConsoNG : → sous-compteurs, panneaux photovoltaïques, IRVE Participation aux programmes Linky (ENEDIS) et Gaspar (GRDF) → fiabilisation des données et échanges avec les distributeurs Mise en place et contrôle des flux inter-outils data Rédaction des expressions de besoins fonctionnels pour la DSI Mise en œuvre de règles de : contrôle d’accès aux données validation des données supervision du cycle de vie des données gestion des versions et historisation Livrables attendus Flux data inter-outils opérationnels Données énergétiques affichées de manière cohérente dans le Portail de Management de l’Énergie Documents fonctionnels et règles de qualité / gouvernance data Profil recherché Data Analyst expérimenté , idéalement avec expérience dans : la qualité et fiabilisation des données , les flux ETL/ELT ou intégrations multi-sources, le domaine énergie (ENEDIS/GRDF, compteurs, data énergie bâtimentaire) serait un plus, rédaction d’expressions de besoins, interactions avec DSI, compréhension architectures data. Compétences clés : SQL, ETL/ELT, gouvernance data, structuration et documentation des données, contrôle qualité, architecture fonctionnelle simple.
Mission freelance
Data Engineer Senior Secteur Media
Publiée le
Apache Airflow
Apache Spark
BigQuery
6 mois
520-640 €
Île-de-France, France
Télétravail partiel
Contexte et détails de la mission Définition du besoin La Direction Technique du Numérique mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Au sein de l’équipe Bronze, la prestation se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. Prestations attendues : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation en data engineering En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances de data engineering • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Modalités de la prestation : Présence sur site requise en fonction des besoins de la prestation et a minima équivalente à 50% du temps de la prestation. Astreintes week-end et jours fériés : Non Matériel performant à fournir par le prestataire : Pour ce faire, les postes informatiques utilisés par le prestataire lors des prestations doivent avoir : - Un antivirus à jour et activé - Un mécanisme de chiffrement du disque activé - Un système d'exploitation à jour de ses correctifs de sécurité - Un mécanisme de verrouillage du poste activé - Un moyen de stockage sécurisé des mots de passe. Usage de la langue française : L'exécution de chaque marché spécifique nécessite l'usage principal et permanent de la langue française dans les rapports avec les parties prenantes (documents, réunions, appels téléphoniques, courriers électroniques…). Les personnes en charge de l‘exécution des prestations doivent maîtriser parfaitement le français (et toute autre langue qui serait précisée après information dans le DCE du marché spécifique concerné) dans le contexte et environnement.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Entretiens et tests techniques developpeurs Java Angular junior
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
2553 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois