L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 447 résultats.
Mission freelance
POT9062 - Un Data Engineer Sénior / Big Data / Spark / Cloudera sur Paris
Almatek
Publiée le
Git
6 mois
Paris, France
Almatek recherche pour l'un de ses clients Un Data Engineer Sénior / Big Data / Spark / Cloudera sur Paris. Contexte de la mission Le projet HALO est un programme stratégique de digitalisation des parcours bancaires (vente en ligne, souscription, IA). La Direction Data met en place une plateforme Big Data pour alimenter les cas d’usage métiers à forte valeur ajoutée. Il s’agit d’un nouveau projet (build) avec des enjeux de performance, d’intégration IA et de montée en charge. L’environnement technique est centré sur un écosystème Hadoop/Cloudera on-premise. Missions principales • Participer à la définition de l’architecture Data en lien avec les architectes et la squad • Affiner les User Stories avec le PO/BA, concevoir et développer les pipelines de collecte et de stockage des données • Orchestrer les flux batch et temps réel (Spark batch + Spark Streaming) • Mettre en œuvre les tests unitaires et automatisés • Déployer le produit dans les différents environnements (CI/CD) • Garantir le bon fonctionnement en production : monitoring, gestion des incidents, optimisation • Accompagner l’équipe dans une logique d’amélioration continue de la qualité du code Environnement technique Catégorie Technologies Framework Big Data Hadoop Cloudera (requis) Traitement Spark, PySpark, Spark Streaming (requis) — Scala (apprécié) Messaging Kafka, Kafka Connect, Kafka Streams (apprécié) Langages SQL (requis), Scala, Java, Shell, Python Bases de données SQL : Hive, Phoenix — NoSQL : HBase, MongoDB DevOps / CI-CD Git, Jenkins, Artifactory, XL Deploy, XL Release Monitoring ELK Stack (Elasticsearch, Logstash, Kibana), Grafana Gouvernance RGPD, Data Lineage, Catalogage
Offre d'emploi
QA Big Data
KLETA
Publiée le
Big Data
Hadoop
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un QA Big Data pour garantir la qualité, la fiabilité et la performance des pipelines et produits data. Vous analyserez les architectures et flux existants, identifierez les risques qualité et proposerez des stratégies de test adaptées aux environnements Big Data et analytiques. Vous concevrez et mettrez en œuvre des tests automatisés sur les traitements batch et streaming (qualité des données, complétude, fraîcheur, cohérence, non-régression), en utilisant des frameworks et outils adaptés (Great Expectations, dbt tests, Python, SQL ou équivalent). Vous serez responsable de la définition des critères d’acceptance data, de la mise en place de contrôles qualité et de la surveillance des anomalies en production. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science et DevOps pour intégrer la qualité dans les pipelines CI/CD et les processus de delivery. Vous participerez également à l’analyse des incidents data, à l’amélioration continue des pratiques de test et à la documentation des standards qualité au sein de la plateforme.
Offre d'emploi
DevOps / SysOps Senior (H/F)
Amiltone
Publiée le
DevOps
40k-45k €
Marseille, Provence-Alpes-Côte d'Azur
Intégré à nos équipes sur notre Factory ou chez nos clients, nous recherchons un DevOps / SysOps senior. Vous rejoignez le projet dès sa phase de démarrage, participez à la définition de l'architecture, puis assurez à la fois les activités de BUILD et de RUN. Votre rôle - Vous construisez les environnements Cloud - Vous automatisez les déploiements - Vous garantissez la stabilité, la supervision et l'exploitation des applications - Vous travaillez en binôme avec les équipes de production, avec un rôle de référent technique et de transmission Vos missions - Construire les environnements Cloud via Terraform (cluster OpenStack) - Automatiser les déploiements et configurations avec Ansible - Mettre en place et maintenir les pipelines CI/CD (Jenkins, GitLab, Sonar, Nexus) - Déployer et exploiter la supervision et l'observabilité (Prometheus, Grafana, Loki) - Assurer le suivi des systèmes d'exploitation Linux - Collaborer étroitement avec les équipes de développement - Accompagner et faire monter en compétence les équipes OPS Environnement technique : - Linux (système & réseau) - Cloud public ou privé - Terraform - Ansible - Jenkins - Grafana
Mission freelance
Administrateur Système, Sauvegarde et réseaux
QUALIS ESN
Publiée le
Linux
NetBackup
6 mois
310 €
Lille, Hauts-de-France
Mission Administrateur systèmes RUN : • MCO/MCS Linux (RHEL 6,7,8 9 // Ubuntu) • MCO/MCS vSphere 7,8 • MCO Windows 2012, 2016, 2019 • MCO Trend Micro • Traitement des CGC (MEQ/MEP) • PRTG (installation des équipements, configuration des sondes) • Gestion des demandes et des incidents N2/N3 • Rédaction des procédures pour le N1/N2 • Astreinte DSI (bureautique et industriel) • MCO/MCS Sauvegarde – Netbackup 9.1/10.1.1 BUILD : Linux/DevOps • Optimisation du renouvellement des licences • Mises à jour des serveurs RHEL (planification, communication, analyse d’impact, mise en œuvre) • Correction des vulnérabilités • Mise en place SFTP, NFS, ansible • Ansible • Installation et configuration • Déploiement SIEM, EDR • Uniformisation des déploiements • Gestion de l’installation et configuration des nouveaux serveurs • Patch Management, Changement DNS, redémarrage • Script supervision personnalisé DevOps : • Mise à jour du code GIT pour le site web Ilévia, création pipeline, déploiement application ArgoCD • Rancher, ArgoCD, Harbor, Git, Jenkins Sauvegarde - Netbackup • Analyse, conseil, audit sur l’infrastructure • Mise en place sauvegarde immuable - worm • Changement de la robotique (LTO 6/7 > 9) • Rédaction des documentations techniques et des procédures
Mission freelance
Data Analyst
PARTENOR
Publiée le
Dataiku
Google Cloud Platform (GCP)
Gouvernance
1 an
Puteaux, Île-de-France
Notre client réalise une transformation de sa plateforme Data vers la Google Cloud Plateform avec l'adoption de Dataiku en outil de data préparation. Au sein de la direction Intelligence de la donnée, le département Data Management et Business Intelligence a pour objectif de réaliser sa propre transformation et d'accompagner les directions utilisatrices de GCP/Dataiku à exploiter la plateforme dans le cadre défini, de déployer la gouvernance associée et de l'ajuster dans une démarche d'amélioration continue. Nous recherchons un(e) Data analyst pour aider à accompagner cette transformation. Ces travaux mixent des aspects de pilotage, d'accompagnement au changement et de développements BI Data management, Accompagnement au changement, Data-préparation (Dataiku), plateforme GCP.
Mission freelance
QA Lead
Byrongroup
Publiée le
Data quality
ERP
KPI
1 an
400-500 €
Île-de-France, France
🎯 Vos missions : • Recueil et formalisation des besoins de test • Challenger pour anticiper les risques qualité • Pilotage des activités de tests : planifier, coordonner et exécuter les campagnes de tests (UAT, E2E...) • Concevoir et maintenir les référentiels de test (plans de test, cas de test, matrices de couverture) • Prioriser les scénarios • Définir les stratégies de validation de la qualité des données • Identifier et analyser les anomalies de données • Collaborer avec les équipes techniques pour la correction des écarts • Vérifier la fiabilité des échanges de données • Pilotage de la qualité et reporting
Mission freelance
Consultant technique SAP Data Migration (Syniti ADM) - IDF
Signe +
Publiée le
SAP ABAP
6 mois
500-700 €
Paris, France
Dans le cadre d’un programme stratégique, notre client engage une transformation de son système d’information avec le déploiement de SAP S/4HANA . La mission s’inscrit dans un contexte à forts enjeux autour de la migration des données , élément clé pour garantir la continuité des opérations métiers et le respect du planning projet. En tant que Consultant SAP Data Migration, vous interviendrez sur : Le développement et paramétrage des objets de migration dans Syniti ADM La conception et maintenance des extracteurs SAP (ABAP, BAPI, LSMW, IDoc, OData) L’ analyse des structures de données sources (ECC) et cibles (S/4HANA) La définition des règles de transformation, mapping et validation des données Le support aux cycles de migration : mock runs, SIT, UAT, cutover La gestion des anomalies techniques et l’optimisation des performances de chargement La collaboration étroite avec les équipes fonctionnelles, techniques et data Informations complémentaires : Localisation : Île-de-France Présence sur site : Minimum 3 jours par semaine Démarrage : ASAP Habilitation Obligatoire
Offre d'emploi
Ingénieur système (H/F)
Aleysia
Publiée le
Administration linux
Administration système
Administration Windows
12 mois
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Tu sais piloter des infrastructures critiques avec précision et tu souhaites évoluer dans un environnement où expertise, fiabilité et innovation sont au cœur des priorités, alors ce poste d’ Ingénieur.e Système est fait pour toi ! 🚀 Ton challenge si tu l’acceptes : Administrer , maintenir et faire évoluer les infrastructures systèmes Assurer le maintien en conditions opérationnelles (MCO) et de sécurité (MCS) Concevoir, déployer et optimiser des architectures systèmes (serveurs, virtualisation, stockage) Participer aux projets d’évolution et de transformation des infrastructures Superviser les performances et garantir la disponibilité des environnements Diagnostiquer et résoudre les incidents complexes (niveau 2/3) Automatiser les tâches d’exploitation et améliorer les processus existants Rédiger et maintenir la documentation technique (procédures, schémas, PRA/PCA) Assurer une veille technologique et proposer des axes d’amélioration
Mission freelance
Data Engineer (Snowflake / Qlik) - RENNES, NANTES, BREST, CAEN
Signe +
Publiée le
Qlik Sense
Qlikview
Snowflake
6 mois
Bretagne, France
Ingénieur Data & BI (Snowflake / Qlik) Pour l'un de nos clients, nous recherchons un Ingénieur Data et BI. Périmètre Data : L'équipe Data intervient sur plusieurs domaines (Data Engineering, Data Viz, … ) Data Visualisation et BI (Qlik Cloud) : Préparer et transformer les données pour leur exploitation. Concevoir, développer et maintenir des applications et tableaux de bord interactifs. Proposer des designs pertinents de dashboards répondant aux besoins métiers. Gérer les accès utilisateurs et groupes. Assurer la maintenance et la qualité des applications existantes. L'équipe intervient également à la partie reporting et administration : Conception et automatisation de rapports (Excel, PDF, …). Supervision de la plateforme Qlik : gestion des catalogues et applications, suivi des licences, clés et APIs. Diagnostic et résolution des incidents (logs, API Qlik). Compétences requises : 3 ans d'expérience sur l’utilisation de Qlik (QlikSense, QlikCloud ...) et Snowflake (préparation et optimisation des données). Bonne compréhension des principes d’architecture BI et des bonnes pratiques de modélisation. Capacité à optimiser les applications et améliorer la performance des modèles de données. Points clés pour réussir Être autonome et curieux : (forums, documentation, veille technique)... Avoir une base technique solide sur les modules de Qlik (Analyse, Automation). Comprendre les enjeux d’administration, même si ce n’est pas le cœur du métier. Être capable de diagnostiquer les problèmes d’accès, de configuration ou de logique métier. Autonome, curieux, capacités relationnelles
Offre d'emploi
Data scientist Senior
VISIAN
Publiée le
Large Language Model (LLM)
Natural Language Processing (NLP)
Python
1 an
Paris, France
Contexte Dans le cadre des projets IT Innovation, vous intégrerez l'équipe AI Factory/Innovation en tant que Data Scientist Senior avec une double mission stratégique : veille technologique et développement de modèles IA. Vous serez le référent technique sur les nouvelles approches IA/ML (LLMs, nouvelles architectures, techniques émergentes). Vous évaluerez la faisabilité technique des use cases métiers, benchmarkerez les solutions du marché (vendors, open-source) et réaliserez des quick POCs (2-3 jours) pour valider des hypothèses avant investissement. Vous concevrez et développerez les modèles ML/DL pour les use cases retenus, du choix des algorithmes à l'optimisation finale. Vous réaliserez des prototypes rapides (POC en 2-4 semaines) et accompagnerez un Data Scientist junior dans sa montée en compétences. Expert en vibe coding, vous utilisez les outils d'IA générative (GitHub Copilot, Cursor, Claude, ChatGPT) pour accélérer l'exploration de données, le prototypage de modèles, la génération de code d'analyse et la documentation, tout en gardant un esprit critique sur les résultats. Vous travaillerez en mode agile en proximité avec les équipes métier Products & Innovation, les développeurs IA, les architectes et les autres Data Scientists. La mission se déroule dans un contexte anglophone, la maîtrise de l'anglais est obligatoire.
Mission freelance
Tech Lead Customer Data Cloud
EBMC
Publiée le
SAP
6 mois
300-600 €
France
Dans le cadre d’un projet digital dans le secteur pharmaceutique, nous recherchons un Tech Lead spécialisé SAP Commerce Cloud afin d’accompagner une équipe projet sur des sujets de développement et d’évolution de la plateforme e-commerce. Le consultant interviendra en tant que référent technique sur le périmètre Commerce Cloud, avec pour mission de structurer les travaux, sécuriser les choix techniques et garantir la qualité des livrables. Il participera également à l’encadrement et à la montée en compétence de consultants, tout en contribuant activement aux activités de conception et de delivery.
Mission freelance
Architecte Réseau et Sécurité Datacenter
PROPULSE IT
Publiée le
24 mois
450-900 €
Paris, France
PROPULSE IT recherche un Architecte Réseau et sécurité Datacenter. Le client souhaite renforcer son équipe par un architecte réseau et sécurité Datacenter, afin de l'assister dans la conception, mise en oeuvre et industrialisation réseau au sein des datacenters. - Etude et analyse des opportunités d'évolution des infras Réseau & Sécurité - Mise en œuvre de projets d'infras réseau & sécurité - Support technique sur les technologies réseau & sécurité Les compétences techniques attendues sont les suivantes : - Expertise réseaux LAN : Cisco Fabric Path/VxLAN, - Expérience Système : Redhat linux 8, Windwos 2019 - Expériences en études et déploiement de réseaux Telecom Les compétences fonctionnelles attendues sont les suivantes : - Conception des architectures et expertise - Rédaction/ Enrichissement de base de connaissances - Reporting de l'activité projet au management
Offre d'emploi
Administrateur réseaux F/H
Experis France
Publiée le
32k-37k €
Angers, Pays de la Loire
Administrateur réseaux F/H - Angers 📢 Offre d'emploi - Administrateur Réseaux (H/F) Localisation : Angers Type de contrat : CDI / Freelance / Mission longue 🎯 Contexte du poste Dans le cadre du renforcement de son pôle Réseau, notre client recherche un Administrateur Réseaux capable d'assurer le support niveau 2 des infrastructures WAN, LAN et Wi-Fi , ainsi que de participer à la structuration des processus de diagnostic et à l'enrichissement de la base de connaissances réseau. Vous interviendrez au cœur d'un environnement technique exigeant, en lien direct avec les équipes IT, les prestataires et les experts infrastructures. 🔧 Missions principales 1️⃣ Administration & Exploitation des Infrastructures Vous garantissez le bon fonctionnement, la disponibilité et la performance des environnements réseaux et systèmes associés : Administration et exploitation des infrastructures : WAN, LAN, Wi-Fi , serveurs, bases de données, stockage et réseaux. Analyse, résolution et escalade des incidents de niveau 2. Suivi des performances, supervision, optimisation des flux réseau. Participation aux opérations d'exploitation courante et aux changements planifiés (maintenance, upgrades, patching…). 2️⃣ Pilotage des Prestataires Coordination et suivi des prestataires matériels ou logiciels intervenant sur le périmètre réseau. Participation à la gestion contractuelle, validation des livrables techniques, contrôle de qualité des interventions. Suivi des engagements SLA et reporting des performances. 3️⃣ Étude, Conception & Projets Réseau Participation à l'étude, la définition et la mise en œuvre des nouvelles architectures applicatives. Proposition d'améliorations techniques pour fiabiliser les infrastructures. Contribution au design des architectures réseau : sécurisation, segmentation, haute disponibilité, QoS… Participation à la rédaction des documents d'architecture et d'exploitation. 4️⃣ Urbanisation du Système d'Information Vous jouez un rôle clé dans la cohérence globale du SI : Contribution à l'urbanisation du SI et aux travaux d'intégration réseau. Participation à la mise en place et à l'évolution des API et des bus d'échanges de données . Développement des chaînes de diagnostic réseau : méthodologie, outils, automatisation. Enrichissement de la base de connaissances : procédures, modes opératoires, guides de dépannage.
Mission freelance
Data Engineer
Coriom Conseil
Publiée le
Google Cloud Platform (GCP)
Scripting
SQL
12 mois
400-490 €
Lille, Hauts-de-France
Le ou la Data Engineer sera intégré(e à l'équipe produit TOPASE NLS et aura pour principales missions de : µ ● Conception, Développement et Optimisation de Pipelines de Données sur GCP : ○ Concevoir, développer et maintenir des pipelines robustes et performants de collecte, transformation et chargement de données à partir de diverses sources (Oracle, fichiers, APIs, etc.) vers BigQuery et d'autres destinations. ○ Utiliser et orchestrer les services Google Cloud Platform (Dataflow, Dataproc, Cloud Composer/Airflow, Pub/Sub, Cloud Storage, BigQuery) pour construire des architectures de données scalables et fiables. ○ Assurer l'automatisation des traitements, la gestion des dépendances et l'ordonnancement des jobs de données. ○ Optimiser les performances des pipelines et la consommation des ressources GCP.
Mission freelance
ARCHITECTE DATA / POWER BI & AZURE
PROPULSE IT
Publiée le
Azure
BI
24 mois
275-550 €
Massy, Île-de-France
Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité
Mission freelance
Cloud Automation & Data Engineering
ROCKET TALENTS
Publiée le
AWS Cloud
CI/CD
Data governance
1 an
360-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Cloud Automation & Data Engineering Contexte général Pour le compte d’un grand groupe industriel international nous recherchons un profil Cloud Automation & Data Engineer afin d’intervenir sur des environnements cloud AWS à forte composante automatisation, DevSecOps et data platforms . La mission s’inscrit dans un contexte de modernisation des plateformes cloud et data , avec des exigences élevées en matière de sécurité, gouvernance et industrialisation . Objectifs de la mission Automatiser et fiabiliser les infrastructures cloud et les services data Industrialiser les déploiements applicatifs et data via des pratiques DevSecOps Concevoir et maintenir des plateformes cloud et data scalables, sécurisées et conformes Accompagner les équipes projets sur les bonnes pratiques cloud & data engineering Responsabilités principales 1. Automatisation des infrastructures cloud Conception et mise en œuvre d’infrastructures cloud as code (Terraform) Automatisation du provisioning et du cycle de vie des ressources cloud AWS Optimisation des environnements cloud (scalabilité, disponibilité, performance) Automatisation des services data AWS (S3, Glue, Kinesis, etc.) Industrialisation et supervision des pipelines data 2. DevSecOps & CI/CD Mise en place et amélioration de pipelines CI/CD Intégration des contrôles de sécurité dans les chaînes de déploiement Automatisation des tests, validations de données, contrôles de qualité et schémas Utilisation d’outils type GitLab, GitHub, Jenkins 3. Platform Engineering & Data Platforms Conception de plateformes applicatives cloud (microservices, serverless, conteneurs) Contribution à des frameworks et outils internes de platform engineering Conception et maintien de composants data : data lake, ingestion, événements Mise en œuvre d’architectures orientées événements et données (Lambda, Kinesis, etc.) 4. Sécurité & conformité cloud/data Implémentation des mécanismes de sécurité (IAM, KMS, chiffrement, contrôle d’accès) Application des politiques de gouvernance et conformité cloud Gestion de la gouvernance data : catalogage, classification, traçabilité, accès Mise en place de politiques de rétention, audit et monitoring des données sensibles 5. Collaboration & expertise Travail en étroite collaboration avec des équipes pluridisciplinaires (DevOps, architectes, sécurité, data) Partage de bonnes pratiques et accompagnement technique Veille technologique et recommandations sur les évolutions cloud & data Formation et mentoring sur les services data AWS et les modèles d’automatisation Compétences attendues Techniques Expertise AWS (infrastructure et services data) Infrastructure as Code : Terraform DevSecOps & CI/CD Conteneurisation et orchestration (Docker, Kubernetes) Architectures serverless et microservices Scripting et développement : Python, Bash, SQL Data engineering : ETL/ELT, data modeling, data lifecycle Gouvernance et qualité de la donnée Connaissance de Snowflake appréciée Transverses Bonne capacité d’analyse et de résolution de problèmes Autonomie et sens de l’industrialisation Bon relationnel et capacité à travailler en environnement complexe Approche pragmatique entre contraintes opérationnelles et ambitions techniques
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6447 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois