L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 274 résultats.
Offre d'emploi
Ingénieur/Administrateur système et réseau H/F
HAYS France
Publiée le
Orléans, Centre-Val de Loire
Vos missions sont les suivantes : Assurer la sécurité informatique : garantir l'application des politiques de sécurité, prévenir les risques, superviser les dispositifs de protection et assurer la continuité de service. Gérer et superviser le réseau : assurer le bon fonctionnement, la disponibilité et l'optimisation des infrastructures informatiques. Garantir l'administration des systèmes : mettre en œuvre, configurer et maintenir les serveurs, postes de travail et environnements associés. Maintenir une amélioration continue : proposer et déployer des solutions innovantes pour renforcer la performance, la fiabilité et la sécurité du système d'information. Former et assister les utilisateurs.
Mission freelance
Developpeur Data Engineer
Freelance.com
Publiée le
Big Data
Snowflake
3 mois
400 €
Bordeaux, Nouvelle-Aquitaine
Vous rejoignez l’équipe Data Tech Knowledge au sein de la direction IT Data. La mission s’inscrit dans une dynamique d’innovation autour de l’ IA appliquée aux environnements Data , avec un fort enjeu d’industrialisation et d’optimisation des processus existants. Vous intervenez en proximité avec les équipes métiers et data afin d’améliorer les outils, les flux et les plateformes. 🚀 Missions principales Développer et maintenir des pipelines d’alimentation de données Concevoir et optimiser des transformations via ETL (Talend / DBT) Travailler en binôme avec un Data Analyst sur des cas d’usage IA/Data Participer au développement d’agents IA permettant le requêtage SQL en langage naturel Mettre en place des outils d’aide au développement et de monitoring Contribuer aux bonnes pratiques DevOps et DataOps Réaliser une veille technologique autour des architectures data modernes 🛠 Environnement technique Langages : SQL, Python Bases de données : Snowflake, SQL Server, PostgreSQL Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Visualisation : Power BI 🔎 Profil recherché 2 à 5 ans d’expérience en Data Engineering Très bonne maîtrise de Python et Snowflake Expérience confirmée sur des outils ETL (Talend et/ou DBT) Connaissances en IA (1 à 2 ans) appréciées Autonomie, esprit d’équipe et capacité à comprendre les enjeux métiers
Offre d'emploi
QA Big Data
KLETA
Publiée le
Big Data
Hadoop
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un QA Big Data pour garantir la qualité, la fiabilité et la performance des pipelines et produits data. Vous analyserez les architectures et flux existants, identifierez les risques qualité et proposerez des stratégies de test adaptées aux environnements Big Data et analytiques. Vous concevrez et mettrez en œuvre des tests automatisés sur les traitements batch et streaming (qualité des données, complétude, fraîcheur, cohérence, non-régression), en utilisant des frameworks et outils adaptés (Great Expectations, dbt tests, Python, SQL ou équivalent). Vous serez responsable de la définition des critères d’acceptance data, de la mise en place de contrôles qualité et de la surveillance des anomalies en production. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science et DevOps pour intégrer la qualité dans les pipelines CI/CD et les processus de delivery. Vous participerez également à l’analyse des incidents data, à l’amélioration continue des pratiques de test et à la documentation des standards qualité au sein de la plateforme.
Mission freelance
Business Analyst – ALM Treasury Transformation - Paris
Net technologie
Publiée le
ALM
Data quality
Recette
9 mois
Paris, France
Dans le cadre d’un programme stratégique de modernisation du SI ALM Treasury , nous recherchons un(e) consultant(e) pour accompagner la refonte des moteurs de calcul des indicateurs de risque de taux et de liquidité du Banking Book . 🎯 Missions Organisation et coordination des tests UAT des nouveaux moteurs de calcul Validation des modélisations (échéanciers, positions optionnelles, P&L, taux de cession interne) Contribution aux contrôles de Data Quality Coordination du déploiement des solutions en France et à l’international Animation d’ateliers métiers & coordination avec les équipes IT Suivi des roadmaps et dépendances projets 📌 Contribution possible à la rédaction de Business Requirements (≈20%).
Mission freelance
Data Engineer Principal
Nicholson SAS
Publiée le
Architecture
Data analysis
Data Lake
6 mois
550 €
Lyon, Auvergne-Rhône-Alpes
Mission basée à Lyon avec une présence sur site requise trois jours par semaine, ce rôle de Data Engineer Principal s’inscrit dans un contexte exigeant mêlant data engineering et machine learning. Démarrage ASAP pour une mission courant jusqu’au 31 décembre 2026. Au sein des équipes produit, le consultant interviendra sur la conception, la construction et la maintenance du data layer ainsi que des plateformes de données. Il sera responsable de la mise en œuvre d’architectures robustes permettant le traitement et l’analyse de volumes de données importants, en garantissant performance, scalabilité et fiabilité. Le poste implique également la gestion des flux de données et des interfaces associées, avec la création et l’intégration de structures optimisées pour l’exploitation analytique. Une attention particulière sera portée à l’industrialisation et au déploiement d’algorithmes performants, dans une logique d’optimisation continue. Le profil recherché justifie d’au moins 7 ans d’expérience, avec une expertise confirmée en data engineering, architecture data, data management et environnements data lake, ainsi qu’une bonne maîtrise des problématiques machine learning.
Offre d'emploi
Data Engineer – Plateforme Data AWS / Snowflake
EterniTech
Publiée le
Apache Airflow
AWS Cloud
Data Lake
3 mois
Magny-les-Hameaux, Île-de-France
Description du besoin : Data Engineer – Plateforme Data AWS / Snowflake Client : Grand Groupe Industriel International Localisation : Magny-les-Hameaux (78) + déplacements ponctuels Malakoff (92) Télétravail partiel : 2 jours / semaine Démarrage idéal : ASAP Information de type C3 - Contexte industriel ? Contexte Dans le cadre de l’évolution de sa plateforme Data, un grand groupe industriel souhaite renforcer son dispositif avec un profil senior spécialisé en orchestration de pipelines de données, avec une expertise forte sur Apache Airflow. Le client dispose d’un écosystème data déjà en place (AWS / Data Lake / Snowflake) et cherche à améliorer la fiabilité, la scalabilité et l’industrialisation des traitements. L’objectif est d’intégrer un profil capable de concevoir et structurer les workflows data, et non simplement d’utiliser Airflow pour exécuter des jobs existants. ? Objectif de la mission Le client recherche un Data Engineer senior avec une expertise avancée sur Airflow, capable de : -concevoir et développer des DAGs complexes -structurer l’enchaînement des traitements de données -gérer les dépendances entre pipelines -implémenter des stratégies de gestion des erreurs, retry et reprise -optimiser l’orchestration et la planification des workflows Le consultant interviendra sur la fiabilisation et l’industrialisation des pipelines data, avec une forte autonomie dans la conception des solutions. ? Prestations attendues ? Orchestration & Airflow (cœur de mission) Conception et développement de DAGs Airflow complexes Structuration des workflows data et gestion des dépendances Mise en place de stratégies de retry, reprise et gestion des erreurs Optimisation du scheduling et des performances des pipelines Industrialisation des workflows ? Data Engineering & intégration Intégration et orchestration de pipelines batch et temps réel Collaboration avec les équipes Data (Data Engineers / Data Scientists) Contribution à l’architecture globale des pipelines ? Cloud & environnement technique Intégration dans un environnement AWS Data Lake Interaction avec les services data (stockage, compute, etc.) Automatisation et bonnes pratiques de développement ? Environnement technique Airflow (expertise avancée requise) Python AWS (S3, Glue, etc.) Data Lake / Snowflake CI/CD / Terraform (apprécié) ? Profil recherché ? Expérience 5+ ans en Data Engineering Expérience significative sur Airflow en production Expérience sur des environnements data complexes ? Compétences indispensables Airflow avancé (design de DAGs, orchestration complexe) Python Conception de pipelines data Gestion des dépendances et workflows ? Compétences appréciées AWS / Data Lake Terraform / CI/CD Snowflake ? Points clés (critères éliminatoires) Profil ayant utilisé Airflow uniquement comme outil de déclenchement ? Absence d’expérience en conception de DAGs ? Pas de maîtrise de la logique d’orchestration ? ? Profil idéal Un profil capable de penser et concevoir une orchestration complète de pipelines data, avec une vraie maîtrise des mécaniques internes d’Airflow, et une capacité à intervenir en autonomie sur des environnements existants.naires Communication claire et structurée
Mission freelance
Business Analyst Planisware (H/F)
HC
Publiée le
Business Analyst
Planisware
1 an
520 €
Guyancourt, Île-de-France
Le poste vise à accompagner la migration du logiciel GPS vers Planisware E7 en SaaS dans le cadre du projet ANEMO. L'enjeu majeur est d'assurer la continuité de la planification des projets d'ingénierie Renault tout en gérant l'interconnexion avec une trentaine d'applications. Le profil recherché doit maîtriser l'analyse fonctionnelle et technique sur Planisware (V6 et V7), avec une capacité à analyser le code customisé pour traiter les incidents et pallier l'absence de documentation. La certification SAFe et une connaissance des concepts d'IA générative sont exigées, reflétant la modernisation de l'environnement technique. Le candidat devra produire des livrables agiles (EPICS, User Stories, cas tests) et assurer le suivi qualité en mode projet et opérationnel.
Mission freelance
Data Engineer
Coriom Conseil
Publiée le
Google Cloud Platform (GCP)
Scripting
SQL
12 mois
400-490 €
Lille, Hauts-de-France
Le ou la Data Engineer sera intégré(e à l'équipe produit TOPASE NLS et aura pour principales missions de : µ ● Conception, Développement et Optimisation de Pipelines de Données sur GCP : ○ Concevoir, développer et maintenir des pipelines robustes et performants de collecte, transformation et chargement de données à partir de diverses sources (Oracle, fichiers, APIs, etc.) vers BigQuery et d'autres destinations. ○ Utiliser et orchestrer les services Google Cloud Platform (Dataflow, Dataproc, Cloud Composer/Airflow, Pub/Sub, Cloud Storage, BigQuery) pour construire des architectures de données scalables et fiables. ○ Assurer l'automatisation des traitements, la gestion des dépendances et l'ordonnancement des jobs de données. ○ Optimiser les performances des pipelines et la consommation des ressources GCP.
Offre d'emploi
Administrateur Réseaux Sénior F/H
AIS
Publiée le
Réseaux
1 mois
35k-42k €
210-420 €
Nantes, Pays de la Loire
🎯 MISSIONS : Intégré(e) aux équipes d'un de nos clients grand compte, vos missions seront les suivantes : - Participation à la conception technique des architectures réseau - Mise en place de solutions d'automatisation / industrialisation - Contribution aux projets d'évolution du réseau et de la sécurité - Rédaction de la documentation technique - Réalisation des transferts de compétences vers les équipes - Administration courante des infrastructures réseau - Réalisation des campagnes de mise à jour - Suivi et gestion de l'obsolescence matérielle ou logicielle - Support N3 sur les incidents de production - Accompagnement des déploiements projets - intervention en HNO possibles et astreinte cyclique éventuelle Environnement Technique : - Maîtrise du switching - Maîtrise du routage BGP et firewalling - Connaissance en SD-WAN, Cisco Meraki, Cradlepoint / Starlink - Une expérience dans la relation opérateurs serait un plus - Contribution à l'industrialisation, bonnes pratiques réseau et capacités d'analyse avancées
Mission freelance
PMO Data
Codezys
Publiée le
Animation
Data management
Gouvernance
12 mois
330-430 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre de ses programmes de transformation stratégique, notre organisation souhaite renforcer la mise en œuvre de ses initiatives « data ». À cet effet, nous recherchons un PMO expérimenté afin d’assurer l’animation opérationnelle des équipes plateformes. La mission consiste à coordonner et suivre l’ensemble des travaux liés à la mise en œuvre des attendus « data », en veillant à la conformité avec les enjeux de gouvernance et d’architecture data. Le candidat idéal devra posséder une solide expertise en architecture data et gouvernance , afin d’accompagner efficacement les équipes dans la réalisation des objectifs stratégiques. Type de mission : Temps plein Démarrage : Dès que possible Objectifs et livrables Management de la backlog d'évolution : Assurer la priorisation, la gestion et la coordination des évolutions nécessaires pour la plateforme data en alignement avec les objectifs du programme. Animation des rituels de suivi par plateforme : Organiser et animer les réunions régulières afin de faire le point sur l’avancement, identifier les risques et coordonner les actions correctives. Reporting au directeur de programme : Élaborer des rapports synthétiques et précis pour suivre l’état d’avancement, les enjeux et les résultats des travaux en cours auprès de la direction.
Mission freelance
Administrateur Système, Sauvegarde et réseaux
QUALIS ESN
Publiée le
Linux
NetBackup
6 mois
310 €
Lille, Hauts-de-France
Mission Administrateur systèmes RUN : • MCO/MCS Linux (RHEL 6,7,8 9 // Ubuntu) • MCO/MCS vSphere 7,8 • MCO Windows 2012, 2016, 2019 • MCO Trend Micro • Traitement des CGC (MEQ/MEP) • PRTG (installation des équipements, configuration des sondes) • Gestion des demandes et des incidents N2/N3 • Rédaction des procédures pour le N1/N2 • Astreinte DSI (bureautique et industriel) • MCO/MCS Sauvegarde – Netbackup 9.1/10.1.1 BUILD : Linux/DevOps • Optimisation du renouvellement des licences • Mises à jour des serveurs RHEL (planification, communication, analyse d’impact, mise en œuvre) • Correction des vulnérabilités • Mise en place SFTP, NFS, ansible • Ansible • Installation et configuration • Déploiement SIEM, EDR • Uniformisation des déploiements • Gestion de l’installation et configuration des nouveaux serveurs • Patch Management, Changement DNS, redémarrage • Script supervision personnalisé DevOps : • Mise à jour du code GIT pour le site web Ilévia, création pipeline, déploiement application ArgoCD • Rancher, ArgoCD, Harbor, Git, Jenkins Sauvegarde - Netbackup • Analyse, conseil, audit sur l’infrastructure • Mise en place sauvegarde immuable - worm • Changement de la robotique (LTO 6/7 > 9) • Rédaction des documentations techniques et des procédures
Offre premium
Mission freelance
Ingénieur Cybersécurité (H/F)
Link Consulting
Publiée le
Gouvernance, gestion des risques et conformité (GRC)
Microsoft Purview
Prévention des pertes de données (DLP)
3 mois
450-550 €
Bois-Colombes, Île-de-France
Pour le compte de notre client dans l' assurance , nous recherchons un Ingénieur Cybersécurité spécialisé GRC (H/F) avec une forte appétence pour la sécurité opérationnelle et la montée en compétences vers la gestion de projet. Responsabilités principales : Pilotage et run de solutions DLP / Microsoft Purview . Gestion des campagnes antiphishing et animation des actions de sensibilisation sécurité. Participation active à la sécurité des projets transverses. Appui opérationnel et structuration des pratiques GRC au sein des équipes. Évolution progressive vers des responsabilités en gestion de projet sécurité.
Mission freelance
Product Owner Relation Clients (H/F)
Come Together
Publiée le
Business Analyst
Relation client
3 mois
Lille, Hauts-de-France
Nous cherchons pour notre client grand compte de la région un Product Owner Relation Clients Le consultant sera en charge des évolutions sur les applications et outils du périmètre relation clients. En contact permanent avec l’équipe métier qui exprime ses besoins. Les missions principales sont : · Gérer le backlog du périmètre relation client: création de tickets, planification et priorisation · Comprendre et clarifier les exigences métiers : recueil demandes, formalisation, analyse fonctionnelle détaillée des besoins métiers · Définir les solutions fonctionnelles avec les équipes architecture / sécurité / infrastructure · Tester les fonctionnalités développées et identifier les bugs · Préparer et exécuter la démonstration des fonctionnalités à la fin de chaque cycle de développement · Définition des alertes fonctionnelles à destination des équipes monitoring et définition des KPI pour suivi métier
Offre d'emploi
Chef de projet MOE DATA (Tableau)
Freelance.com
Publiée le
Python
Tableau Desktop
Tableau software
1 an
40k-70k €
400-550 €
Paris, France
Client : Public Postes : Chef de projet Data (Tableau) Expérience : 8 ans minimum Localisation : Paris Démarrage : Sous 2 semaines Durée : 6 mois renouvelable Missions principales En tant que Chef de Projet TMA DATA , vous serez responsable du : Pilotage opérationnel Coordonner la TMA avec la MOA, les équipes de développement, DevSecOps et les services DTNUM Garantir le bon fonctionnement des deux applications Prioriser et suivre les demandes de maintenance corrective et évolutive Assurer le suivi des performances et proposer des actions d’amélioration Pilotage projet Préparer et animer les comités projet Assurer un reporting régulier auprès de la hiérarchie et du métier Suivre les budgets et engagements financiers Garantir la qualité documentaire et la conformité des livrables Qualité & conformité Superviser les tests, audits, homologations et contrôles réglementaires Veiller au respect des normes RGPD, RGGA et exigences de sécurité Compétences requises : Techniques Maîtrise des architectures applicatives backend / frontend Très bonnes connaissances PostgreSQL et requêtage SQL Maîtrise du progiciel Tableau Maîtrise de GitLab et des outils de gestion de configuration Connaissance des environnements Java / React / Python (lecture, compréhension) Projet Maîtrise des méthodologies Agile et Cycle en V Maîtrise de Jira , Git, gestion d’arborescence projet, documentation Animation de comités projet, pilotage, reporting hiérarchique et métier Suivi budgétaire et financier Pilotage d’équipes de développement Qualité & Conformité Connaissance des tests et audits nécessaires à la mise en service : Métrologie Audit de sécurité RGGA Homologation SSI RGPD Profil recherché Expérience confirmée en chefferie de projet TMA Connaissance solide des environnements Data , Reporting , API , Tableau, Python, Vertica Capacité à travailler en environnement multi‑acteurs (MOA, MOE, DevSecOps, architectes) Excellentes compétences de communication, coordination et pilotage Rigueur, autonomie, sens du service et capacité d’analyse
Offre d'emploi
Administrateur réseaux F/H
Experis France
Publiée le
32k-37k €
Angers, Pays de la Loire
Administrateur réseaux F/H - Angers 📢 Offre d'emploi - Administrateur Réseaux (H/F) Localisation : Angers Type de contrat : CDI / Freelance / Mission longue 🎯 Contexte du poste Dans le cadre du renforcement de son pôle Réseau, notre client recherche un Administrateur Réseaux capable d'assurer le support niveau 2 des infrastructures WAN, LAN et Wi-Fi , ainsi que de participer à la structuration des processus de diagnostic et à l'enrichissement de la base de connaissances réseau. Vous interviendrez au cœur d'un environnement technique exigeant, en lien direct avec les équipes IT, les prestataires et les experts infrastructures. 🔧 Missions principales 1️⃣ Administration & Exploitation des Infrastructures Vous garantissez le bon fonctionnement, la disponibilité et la performance des environnements réseaux et systèmes associés : Administration et exploitation des infrastructures : WAN, LAN, Wi-Fi , serveurs, bases de données, stockage et réseaux. Analyse, résolution et escalade des incidents de niveau 2. Suivi des performances, supervision, optimisation des flux réseau. Participation aux opérations d'exploitation courante et aux changements planifiés (maintenance, upgrades, patching…). 2️⃣ Pilotage des Prestataires Coordination et suivi des prestataires matériels ou logiciels intervenant sur le périmètre réseau. Participation à la gestion contractuelle, validation des livrables techniques, contrôle de qualité des interventions. Suivi des engagements SLA et reporting des performances. 3️⃣ Étude, Conception & Projets Réseau Participation à l'étude, la définition et la mise en œuvre des nouvelles architectures applicatives. Proposition d'améliorations techniques pour fiabiliser les infrastructures. Contribution au design des architectures réseau : sécurisation, segmentation, haute disponibilité, QoS… Participation à la rédaction des documents d'architecture et d'exploitation. 4️⃣ Urbanisation du Système d'Information Vous jouez un rôle clé dans la cohérence globale du SI : Contribution à l'urbanisation du SI et aux travaux d'intégration réseau. Participation à la mise en place et à l'évolution des API et des bus d'échanges de données . Développement des chaînes de diagnostic réseau : méthodologie, outils, automatisation. Enrichissement de la base de connaissances : procédures, modes opératoires, guides de dépannage.
Mission freelance
Cloud Automation & Data Engineering
ROCKET TALENTS
Publiée le
AWS Cloud
CI/CD
Data governance
1 an
360-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Cloud Automation & Data Engineering Contexte général Pour le compte d’un grand groupe industriel international nous recherchons un profil Cloud Automation & Data Engineer afin d’intervenir sur des environnements cloud AWS à forte composante automatisation, DevSecOps et data platforms . La mission s’inscrit dans un contexte de modernisation des plateformes cloud et data , avec des exigences élevées en matière de sécurité, gouvernance et industrialisation . Objectifs de la mission Automatiser et fiabiliser les infrastructures cloud et les services data Industrialiser les déploiements applicatifs et data via des pratiques DevSecOps Concevoir et maintenir des plateformes cloud et data scalables, sécurisées et conformes Accompagner les équipes projets sur les bonnes pratiques cloud & data engineering Responsabilités principales 1. Automatisation des infrastructures cloud Conception et mise en œuvre d’infrastructures cloud as code (Terraform) Automatisation du provisioning et du cycle de vie des ressources cloud AWS Optimisation des environnements cloud (scalabilité, disponibilité, performance) Automatisation des services data AWS (S3, Glue, Kinesis, etc.) Industrialisation et supervision des pipelines data 2. DevSecOps & CI/CD Mise en place et amélioration de pipelines CI/CD Intégration des contrôles de sécurité dans les chaînes de déploiement Automatisation des tests, validations de données, contrôles de qualité et schémas Utilisation d’outils type GitLab, GitHub, Jenkins 3. Platform Engineering & Data Platforms Conception de plateformes applicatives cloud (microservices, serverless, conteneurs) Contribution à des frameworks et outils internes de platform engineering Conception et maintien de composants data : data lake, ingestion, événements Mise en œuvre d’architectures orientées événements et données (Lambda, Kinesis, etc.) 4. Sécurité & conformité cloud/data Implémentation des mécanismes de sécurité (IAM, KMS, chiffrement, contrôle d’accès) Application des politiques de gouvernance et conformité cloud Gestion de la gouvernance data : catalogage, classification, traçabilité, accès Mise en place de politiques de rétention, audit et monitoring des données sensibles 5. Collaboration & expertise Travail en étroite collaboration avec des équipes pluridisciplinaires (DevOps, architectes, sécurité, data) Partage de bonnes pratiques et accompagnement technique Veille technologique et recommandations sur les évolutions cloud & data Formation et mentoring sur les services data AWS et les modèles d’automatisation Compétences attendues Techniques Expertise AWS (infrastructure et services data) Infrastructure as Code : Terraform DevSecOps & CI/CD Conteneurisation et orchestration (Docker, Kubernetes) Architectures serverless et microservices Scripting et développement : Python, Bash, SQL Data engineering : ETL/ELT, data modeling, data lifecycle Gouvernance et qualité de la donnée Connaissance de Snowflake appréciée Transverses Bonne capacité d’analyse et de résolution de problèmes Autonomie et sens de l’industrialisation Bon relationnel et capacité à travailler en environnement complexe Approche pragmatique entre contraintes opérationnelles et ambitions techniques
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6274 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois