Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 7 262 résultats.
CDI
Freelance

Offre d'emploi
Data Engineer Azure

KLETA
Publiée le
Azure
Databricks

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Azure pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur Microsoft Azure. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec Azure Data Factory, Azure Databricks, Azure Synapse, Azure Data Lake et Event Hubs. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’Azure. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance

Mission freelance
Chef de projet DATA avec une forte expertise en finance & Procurement Data

ARKAMA CS
Publiée le
Data analysis
Finance
SAP

3 mois
Île-de-France, France
Chef de projet DATA avec une forte expertise en finance & Procurement Data. Démarrage immédiat Lieu IDF + télétravail Durée 3 mois renouvelables, projet long Si ce projet vous intéresse, pouvez-vous svp nous faire parvenir les informations suivantes ? Votre date de disponibilité Votre taux journalier Votre lieu d’habitation Votre résumé sous format Word Niveau d’anglais Pour les sociétés, merci de préciser si votre consultant est salarié de votre société Senior Business Analyst / Project Manager (BA/PM) - Procurement Spend Analytics Tool (building & implementation Report to both Procurement business (tool owner) & Information Management Office (project management) Profil sénior (+10 years) Anglais courant indispensable Profil Ce rôle demande une forte expertise en finance & Procurement Data, ERP and/or procurement suite tool, spend classification methodologies, Data analytics/manipulation, business requirements writing, and project/stakeholder management. Connaissance de SAP, including invoices, accounting, and procurement suites/tools (Ariba, etc.) Compétences en DATA manipulation and proficient in handling large-scale transactional datasets Project Management - animation d’ateliers Forte compréhension en IT architecture, including data storage solutions and hyperscale platforms (Google Cloud Platform, SAP BW) Demonstrated experience in procurement analytics, spend analysis, spend classification, strategic sourcing, and procurement transformation initiatives Adept at building and implementing spend categorization and spend analytics tools Rôle Le client recherche un Project leader / Business Analyst/Data Analyst to participate in the Procurement Spend Analysis tool development. The Lead Business Analyst will have to manage the implementation of Procurement spend consolidation, categorization and visualization in collaboration with Business and IT. L’objectif est de remplacer une SAAS solution with an in-house solution. Vous serez responsable for data preparation, spend classification using taxonomy, leading the tool development with IT/Business, governance setup and change management to ensure successful deployment and measurable business impact. There are huge expectations from Procurement Top Management. Le Business (Product) Analyst est le pont entre le Business department and the development teams of the client IT Development organization and contributes to the client business strategy by translating business needs into sustainable products and services. On one hand, the Business (Product) Analyst ensures the right quality of the products and services already in place and on the other hand plays a key role in developing new products and services. Le Business (Product) Analyst travaille avec le business and IT stakeholders afin d’identifier, analyzer, communicate, and validate the needs for change in business processes and information systems. They are responsible for managing issues, evaluating and proposing solutions to meet expressed needs, and enabling the business organization to achieve its objectives. The Business (Product) Analyst operates under security and regulatory constraints, with a constant focus on economic optimization, while ensuring social impact and convergence of the client information systems.
CDI

Offre d'emploi
Urbaniste Data (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Kafka
PostgreSQL

54k-58k €
Roubaix, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Chef de Projet / Lead Sécurité Data & Cloud (GCP) H/F

Inventiv IT
Publiée le
BI
Data governance
Google Cloud Platform (GCP)

6 mois
Niort, Nouvelle-Aquitaine
Contexte de la mission Suite à un audit interne, la mission vise à : Structurer une roadmap sécurité Data Renforcer la protection des données Améliorer le maintien en condition opérationnelle (PRA / PRI) Sécuriser la migration vers le Cloud (GCP) Aligner les pratiques avec les exigences RSSI / PSSI / RGPD Environnement hybride : On Prem + GCP. Objectifs de la mission Structurer et piloter la sécurisation du patrimoine Data Mettre en œuvre les exigences PCI / PRI Data Revoir et fiabiliser les habilitations On Prem & Cloud Renforcer la gouvernance des données sensibles Sécuriser les outils Data / BI / Data Science Contribuer aux exigences RSSI (vulnérabilités, audits, recommandations) Compétences techniques clés Architecture sécurité Cloud (GCP) BigQuery security & Data masking IAM avancé PRA / PRI Data Governance Sécurité applicative Data Environnements Hadoop / Oracle Soft skills Leadership transverse Capacité à dialoguer avec RSSI & CoDir Structuration roadmap Vision stratégique et opérationnelle Responsabilités principales Sécurisation des accès Revue des habilitations On Prem et Cloud Mise en œuvre du principe de moindre privilège Gestion des comptes applicatifs et nominatifs Automatisation des habilitations Cloud Amélioration du processus de revue des droits PRA / PRI Data Structuration PCI / PRI Data Cartographie applicative & technique Identification des criticités Organisation sauvegardes et tests de restauration Priorisation PCI Cloud Gouvernance & protection des données Revue criticité données (RH, Finance, SP, IARD) Anonymisation / pseudonymisation / masking Harmonisation vers masking dynamique BigQuery Auditabilité & conformité RGPD Sécurisation des outils Cartographie des principes SSO Sécurisation outils BI & Data Science Implémentation OAuth2 / SSO Ségrégation projets GCP Coordination sécurité Interface RSSI / DDSI / Data Office Intégration périmètre Data dans outils internes Suivi vulnérabilités Animation comités sécurité Data Environnements techniques Cloud : GCP, BigQuery, DBT, Data Fabrik Cloud On Prem : Hadoop, Hive, Oracle, SAS, Informatica / PowerCenter, NAS Outils Data / BI / Data Science : Dataiku, BO, Tableau, RStudio, Jupyter, IDE Python Référentiels & sécurité : LeanIX, IAM, OAuth2 / SSO
Freelance

Mission freelance
Data Engineer Python / Azure Cloud (H/F)

Gentis Recruitment SAS
Publiée le
Azure
Data Lake
ETL (Extract-transform-load)

12 mois
Paris, France
Dans le cadre d’un projet au sein de la Digital Factory d’un grand groupe international du secteur de l’énergie , nous recherchons un Data Engineer expérimenté pour concevoir et mettre en place des pipelines de données dans un environnement Azure Cloud serverless . Contexte La Digital Factory du groupe (plusieurs centaines de collaborateurs, organisation en squads internationales) développe et déploie des solutions digitales afin de soutenir les activités du groupe à l’échelle mondiale. Missions Concevoir et développer des pipelines de données en Python Mettre en place des traitements batch et orchestrations via Azure Durable Functions Manipuler des volumes de données importants (Parquet) Mettre en place des contrôles qualité et validations de schémas Intégrer des API externes Participer à la modélisation et optimisation des bases Azure SQL Implémenter l’ observabilité (logs, métriques, traces) Industrialiser les déploiements via CI/CD Garantir la qualité et la sécurité du code (tests automatisés, scans) Stack technique Python Azure Cloud Azure Functions (Durable Functions v2) Data Lake / Blob Storage / Azure DB Pandas, Polars, PyArrow Profil recherché Minimum 6 ans d’expérience en Data Engineering Forte expertise Python & Azure Expérience sur architectures serverless Capacité à travailler en environnement agile / squad Anglais courant Informations mission Démarrage : mi / fin mars 2026 Durée : 12 mois Localisation : Paris Télétravail : 2 jours / semaine Processus de sélection Test technique (Codingame) à réaliser sous 72h Échange technique avec l’équipe projet
Freelance

Mission freelance
Data Engineer Senior F/H

SMARTPOINT
Publiée le
Apache Spark
CI/CD
Data Lake

12 mois
400-530 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe spécialisée dans la gestion et l’exploitation des données au sein d’une grande organisation numérique. L’équipe intervient au cœur de la plateforme Data et collabore étroitement avec les différentes directions techniques pour transformer la data en levier stratégique et opérationnel. L’équipe actuelle est composée d’un Product Owner, d’un Data Steward et de deux autres Data Engineers. La mission s’inscrit dans un contexte de traitement de volumes de données importants et de projets transverses autour de la connaissance utilisateur et de la mise à disposition d’outils de pilotage internes. Missions de l’équipe Collecter et centraliser des sources de données hétérogènes. Assurer la conformité, la sécurité et la qualité des données. Participer aux initiatives de gouvernance des données. Missions du Data Engineer En interaction avec les membres de l’équipe, le Data Engineer aura pour responsabilités de : Participer aux phases de conception, planification et réalisation des projets data. Construire et maintenir des pipelines de données robustes et scalables. Accompagner l’équipe dans l’exploitation et le requêtage des données. Organiser et structurer le stockage des données pour en faciliter l’accès et l’usage. Mettre en place et maintenir des infrastructures scalables capables de gérer l’augmentation rapide du volume de données. Développer et maintenir les workflows de CI/CD pour les pipelines data. Partager les bonnes pratiques et contribuer à la montée en compétences des autres data engineers. Garantir l’évolutivité, la sécurité et la stabilité des environnements de données. Participer activement aux instances techniques de l’équipe. Contribuer à la mise à jour et à la qualité de la documentation technique. Effectuer une veille technologique proactive sur les outils et méthodes data. Stack technique Langages & traitements : Python, SQL, Spark Orchestration : Airflow Stockage : Cloud Storage, Delta Lake Cloud & services associés : Google Cloud Platform (BigQuery, Dataproc, Pub/Sub) Infrastructure & IaC : Terraform, Terragrunt CI/CD & versioning : GitLab, GitLab CI/CD Méthodologie : Agile (Scrum ou Kanban) Profil recherché Minimum 7 ans d’expérience en Data Engineering. Expertise solide en structuration et traitement de données, code et architecture data. Expérience significative dans la conception et la maintenance de pipelines data . Expérience dans un environnement Google Cloud Platform et utilisation de BigQuery et Dataplex Universal Catalog. Maîtrise des langages Python et SQL et du framework Spark . Expérience avec Delta Lake , Terraform, Terragrunt. Maîtrise des outils GitLab et GitLab CI/CD. Capacité à vulgariser et communiquer sur des sujets techniques complexes. Autonomie, rigueur et capacité à travailler en équipe dans un contexte Agile. Qualités personnelles Esprit d’équipe et collaboration. Proactivité et sens de l’initiative. Curiosité technologique et veille active. Capacité à documenter et partager les bonnes pratiques.
CDI
Freelance

Offre d'emploi
Ingénieur Systèmes, Réseaux & Cloud GCP H/F

Le Groupe SYD
Publiée le
Exchange Online
GitLab CI
Kubernetes

12 mois
45k-48k €
450-500 €
Rennes, Bretagne
🌟 Quel sera ton poste ? 🌟 💼 Poste : Ingénieur Systèmes, Réseaux & Cloud H/F 📍 Lieu : Rennes (35) 🏠 Télétravail : Flexible 📝 Contrat : CDI ou Indep/portage 👉 Contexte client : Tu rejoins un acteur international du secteur de la restauration et de l’agroalimentaire , présent sur de nombreux sites en France et à l’étranger. Au sein de cette équipe, tu interviendras sur un périmètre stratégique couvrant les infrastructures systèmes, le réseau, la sécurité, la containerisation, le Cloud public (GCP) ainsi que la gestion des projets techniques. Tu auras pour missions de : Concevoir, déployer, optimiser et assurer le MCO des infrastructures. Administrer Windows, Linux, VMware, stockage (NetApp/IBM) et sauvegardes (Veeam). Gérer Exchange Online, AD / Azure AD et intervenir sur les environnements Open Source. Prendre en charge Kubernetes, GitLab CI et Terraform pour l’infrastructure GCP . Administrer les solutions de sécurité (firewalls, proxy, WAF, PAM, SSE, EDR, SSO). Intervenir sur les réseaux Cisco/Nexus : LAN, WAN, routage, SD‑WAN. Être force de proposition , piloter les intégrateurs et maintenir les procédures et documents d’exploitation. Conduire les projets techniques de bout en bout, assurer le reporting et le pilotage des prestataires. Gérer l’ escalade N2 , traiter les demandes utilisateurs et assurer une veille technologique. 🧰 Stack technique : Systèmes : Windows Server, Linux, VMware. Cloud & Infra : GCP, Terraform, GitLab CI, Kubernetes. Stockage & Sauvegarde : NetApp, IBM, Veeam. Sécurité : Firewall, Proxy, Reverse Proxy, WAF, PAM, SSE, EDR, SSO. Réseau : Cisco, Nexus, TCP/IP, LAN, WAN, SD‑WAN, routage. Identité & Messagerie : AD, Azure AD, Exchange Online.
Offre premium
Freelance

Mission freelance
Chef de produit senior – Système de fabrication audiovisuelle

INSYCO
Publiée le
Active Directory
Architecture
DNS

36 mois
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Chef de produit senior – Système de fabrication audiovisuelle . Nous étudions – prioritairement – les candidatures adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité et mobilité Tarif journalier Merci d’indiquer la référence KTR/AUD/5053 dans l’objet de votre message. La prestation porte sur le pilotage d’un système de fabrication numérique couvrant l’ensemble de la chaîne de production audiovisuelle : acquisition, stockage, montage, diffusion, archivage et interfaçage avec les systèmes éditoriaux et de diffusion. Le système couvre les sous-systèmes suivants : Acquisitions (fichiers et SDI) Serveur de stockage (acquisition, fabrication et archivage) Système de gestion de média (serveurs applicatifs Windows Server) Montage et mixage Diffusion (serveurs vidéo et automation développée en interne) Archivage Échanges et interfaçage avec le système d’échange de médias Interfaçage avec les systèmes connexes : NRCS OpenMedia, trafic système de diffusion antenne, système d’indexation textuelle des contenus vidéo pour archivage, montage, mixage et replay internet La prestation comprend : Pilotage du support d’expertise auprès des acteurs et utilisateurs des applications et systèmes Coordination, en lien avec l’architecte de la solution et le PMO, des travaux effectués par l’équipe de développement en maintenance corrective et évolutive hors projet Garantie des évolutions techniques et fonctionnelles après validation Assistance aux maîtrises d’ouvrage dans l’évaluation de l’opportunité des évolutions demandées Garantie de l’alignement entre les choix d’ergonomie proposés et les besoins des utilisateurs Pilotage des études préalables (analyse des besoins, organisation existante, objectifs à atteindre) Animation des instances accompagnant les maîtrises d’ouvrage Coordination et pilotage de la recette en lien avec l’équipe d’homologation et le leader développement Prononcé de la recette avec réserves éventuelles Organisation et prise en charge du déploiement de l’outil Participation à l’organisation des formations Rédaction d’un guide utilisateur Mise en place d’une hot line et animation d’un réseau d’utilisateurs
Freelance

Mission freelance
Ingénieur Réseau & Sécurité – Expert WiFi (H/F)

ALLEGIS GROUP
Publiée le
Administration réseaux
WIFI

1 an
Fontenay-sous-Bois, Île-de-France
Dans le cadre du renforcement des équipes Réseau & Sécurité, le client recherche un Ingénieur Réseau & Sécurité – Expert WiFi . Votre rôle : garantir la performance, la disponibilité et la sécurité des environnements critiques du groupe , tout en assurant un haut niveau d’expertise sur les infrastructures WiFi. 1️⃣ Expertise avancée sur les infrastructures WiFi Analyse approfondie, diagnostic et troubleshooting avancé Optimisation des performances, couverture et qualité de service Gestion des incidents majeurs et traitement des problèmes récurrents 2️⃣ Contribution au périmètre Réseau & Sécurité global Interventions sur les environnements LAN / WAN / MAN / sécurité périmétrique Supervision & monitoring, capacity planning Contrôle de conformité, respect des standards et bonnes pratiques sécurité 3️⃣ Participation aux opérations et projets techniques Intégration et déploiement de nouvelles solutions réseau et sécurité Participation aux mises en production et validations techniques Rédaction de documentation, amélioration continue des processus Collaboration transverse avec les équipes internes, partenaires et fournisseurs
Freelance

Mission freelance
Technicien NOC N 1_Systèmes & Réseaux H/F

TIBCO
Publiée le
Réseaux
Supervision

6 mois
Saint-Aignan-Grandlieu, Pays de la Loire
Mission Nous recherchons pour notre NOC un Technicien NOC N1 Systèmes et réseaux H/F. Rattaché au Responsable opérationnel du NOC / Responsable NOC. Au sein du Network Operations Center (NOC), le technicien de supervision de niveau 1 assure la surveillance proactive, le traitement des alertes et la gestion des incidents de premier niveau sur les infrastructures systèmes, réseaux, applications et sauvegardes de notre client pour les Point De Vente. Vous contribuez à la disponibilité, la stabilité et la robustesse des infrastructures, dans le respect des procédures, des engagements de service (SLA) et des règles de sécurité. Supervision et surveillance * Surveiller l’infrastructure serveurs, réseaux et applications à l’aide des outils de supervision mis à disposition (hyperviseur, outils de monitoring). * Analyser la disponibilité, la stabilité et la performance des infrastructures. * Détecter les alertes, incidents, pannes ou surcharges. Gestion des alertes et incidents (Niveau 1) * Prendre en compte les alertes issues des outils de supervision. * Créer, qualifier et traiter les tickets via l’outil ITSM. * Appliquer strictement les fiches consignes de notre client . * Réaliser les actions de premier niveau : * Arrêt / relance de services, applications ou serveurs * Vérifications de fonctionnement * Escalader les incidents vers les équipes concernées si nécessaire. * Enregistrer et mettre à jour les incidents dans les bases de suivi. * Apporter un premier diagnostic selon les procédures du client * Assurer la communication et le reporting vers le client Exploitation systèmes * Diagnostiquer les incidents systèmes récurrents. * Redémarrer des services logiciels ou des serveurs (matériel) selon procédure. * Participer aux tests de bascule d’infrastructure (PCA). Exploitation réseaux * Veiller à la disponibilité et à la stabilité du réseau. * Identifier et diagnostiquer les dysfonctionnements réseau. * Appliquer l’ensemble des procédures de notre client sur détection d’incident réseau. Sauvegardes et restaurations Coordination et pilotage des interventions * Déclencher les interventions nécessaires en définissant : * Le niveau d’urgence * Les modalités d’intervention * Participer au pilotage de la résolution des incidents : * Planification des interventions * Coordination des moyens associés Responsabilités * Respect des procédures d’exploitation, de sécurité et de qualité. * Respect des SLA et des engagements contractuels. * Traçabilité et fiabilité des informations saisies dans les outils. * Contribution à l’amélioration continue du service.
Freelance
CDI

Offre d'emploi
Data Analyst

Deodis
Publiée le
PowerBI
PySpark
Python

12 mois
40k-48k €
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Sur site à AIx en Provence, télétravail 2/3 jours par semaine L’objectif est d’intégrer un profil Data Analyst / Data Scientist capable d’exploiter les données du système d’information afin d’identifier des incohérences, de développer des analyses avancées et de contribuer à la mise en œuvre de cas d’usage liés à la détection de fraude. L’intervenant devra exploiter et croiser les données issues du système d’information afin d’analyser leur cohérence et leur impact sur les processus métiers sensibles, notamment dans le cadre de la lutte contre la fraude. Description des missions Prendre en compte les données du domaine « Individu Allocataire » et analyser leurs impacts dans le système d’information. Mettre en œuvre des cas d’usage métiers orientés lutte contre la fraude (ciblage, analyse de données, modèles prédictifs). Réaliser des analyses exploratoires et statistiques sur les données disponibles. Développer et maintenir des produits data réutilisables (scripts, traitements, modèles). Produire des restitutions analytiques à destination des équipes métiers. Respecter les normes, standards et bonnes pratiques en vigueur au sein de l’équipe. Livrables attendus Le titulaire devra produire les livrables suivants : Programmes et scripts de traitement de données dans l’environnement Big Data Hadoop . Développements documentés permettant la réutilisation et la maintenance des traitements. Restitution des analyses sous forme de : présentations PowerPoint , tableaux de bord Power BI .
Freelance

Mission freelance
Data Analyst orienté Data Science

ODHCOM - FREELANCEREPUBLIK
Publiée le
Data analysis
Data science
PySpark

24 mois
400-620 €
Gradignan, Nouvelle-Aquitaine
Site de Gradignan (33) Mission longue durée – 2 ans (1 an ferme + 1 an reconductible) Charge estimée : ~210 jours/an (420 jours max) Contexte Dans le cadre du renforcement de son équipe Analyse de la Donnée, une grande organisation nationale recherche un Data Analyst orienté Data Science afin d’accompagner les métiers dans l’exploitation et la valorisation des données. Missions : Rattaché(e) à l’équipe Analyse de la Donnée, vous interviendrez sur l’ensemble de la chaîne de valeur Data, de la phase exploratoire jusqu’à la restitution des analyses via des outils de datavisualisation. Vos principales responsabilités : Analyse et croisement de données pour répondre à des cas d’usage métiers (ciblage, analyses exploratoires, data science) Développement et maintenance de produits Data réutilisables Publication et mise en forme des résultats via des outils de DataViz Respect des normes, standards et bonnes pratiques de l’équipe Accompagnement et acculturation des équipes métiers aux usages de la donnée Force de proposition dans la traduction des besoins métiers en solutions analytiques adaptées
CDI
Freelance

Offre d'emploi
Data Engineer

LEVUP
Publiée le
AWS Cloud
Python
Snowflake

12 mois
43k-66k €
460-550 €
Liège, Belgique
Data Engineer (Snowflake / AWS) 📍 Localisation : Liège (Belgique) 📅 Expérience : 3 ans minimum 🎯 Mission principale En tant que Data Engineer , vous contribuez à la conception, au développement et à l’optimisation de plateformes data modernes dans un environnement cloud. Vous intervenez sur l’architecture, l’ingestion, la transformation et la gouvernance des données en utilisant Snowflake, AWS et Databricks , avec une attention particulière à la gestion des métadonnées et à la qualité des données. 🛠️ Responsabilités🔹 Développement Data Concevoir et maintenir des pipelines de données robustes (batch & streaming) Développer des flux ETL/ELT performants Modéliser des entrepôts de données (Data Warehouse / Data Lakehouse) Implémenter des solutions sur Snowflake et Databricks 🔹 Cloud & Infrastructure (AWS) Déployer et gérer des services AWS (S3, Glue, Lambda, EC2, IAM, Redshift…) Automatiser les workflows (CI/CD, Infrastructure as Code – Terraform est un plus) Assurer la sécurité et la performance des environnements cloud 🔹 Metadata & Data Governance Mettre en place des stratégies de gestion des métadonnées Maintenir un data catalog Assurer la traçabilité (data lineage) Participer aux initiatives Data Quality 🔹 Collaboration Travailler avec Data Analysts, Data Scientists et équipes métiers Participer aux choix technologiques et bonnes pratiques Documenter les solutions techniques 🧠 Profil recherché🎓 Formation Master en informatique, data engineering ou équivalent 💡 Expérience Minimum 3 ans d’expérience en data engineering Expérience concrète sur projets cloud data 🔧 Compétences techniques indispensables Snowflake (modélisation, performance tuning) AWS (S3, Glue, Lambda, IAM…) Databricks / Spark (PySpark) SQL avancé Python Gestion des métadonnées & data catalog ➕ Atouts Connaissance de Data Mesh ou Lakehouse Expérience dans environnement réglementé (pharma, industrie) Outils BI (Power BI, Tableau…) CI/CD, Git, DevOps 🌍 Langues Français courant Anglais professionnel (documentation et échanges techniques) 🤝 Soft Skills Esprit analytique Autonomie Sens de la qualité et rigueur Capacité à vulgariser des sujets techniques
CDI

Offre d'emploi
Administrateur(trice) système linux F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Ansible
GNU
Linux

Dijon, Bourgogne-Franche-Comté

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDD

Offre d'emploi
Technicien Réseau et Télécom (H/F)

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le

6 mois
24k-26k €
Toulouse, Occitanie
Nous vous invitons à relever de nouveaux challenges et à évoluer sur des projets d'expertise et d'innovation en prenant part à l'aventure Econocom. A travers sa marque Workplace Infra Innovation, l'activité Services en région Occitanie accompagne plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Ce qui vous attend : Au sein d'une grande entreprise du secteur de la distribution, vous intégrez la cellule NOC (Network Operations Center) afin d'intervenir sur les réseaux (à 75%) et télécoms (à 25%) de différents sites (magasins, drives, centrales d'achats, datacenter) et d'assurer le fonctionnement quotidien des infrastructures réseaux et télécoms. Vos responsabilités : • Diagnostiquer et analyser les incidents techniques (liens télécoms, tunnels IPsec, routage statique/BGP, NAT, etc.) • Corriger et optimiser les configurations des routeurs en collaboration avec les ingénieurs NOC • Gérer et suivre la mise en œuvre des solutions télécoms, avec un retour d'information aux différents intervenants • Assurer la communication et le support auprès du client final tout au long du processus • Réaliser des opérations de maintenance préventive, incluant les mises à jour des équipements et les ajustements de configuration. L'environnement technique : • Équipements : Cisco, Juniper, Huawei, Fortinet • Technologies : VPN, tunnel GRE, BGP, HSRP, VRRP, LAN • Offres télécoms : ADSL, SDSL, FTTH, FTTB, 4G Ce que nous vous proposons : Valeurs : en plus de nos 3 fondamentaux que sont l'audace, la bonne foi et la réactivité, nous garantissons un management à l'écoute et de proximité, ainsi qu'une ambiance familiale Contrat : en CDD d'une durée de 6 mois (date de démarrage fin mars). Possibilité de passage en CDI. Localisation : sur site client à Basso Combo ou Labège (en fonction de la localisation du candidat) Package rémunération & avantages : • Le salaire : rémunération annuelle brute selon profil et compétences • Les basiques : mutuelle familiale et prévoyance, titres restaurant, remboursement transport en commun à 50%, avantages du CSE (culture, voyage, chèque vacances, et cadeaux), RTT (jusqu'à 12 par an), plan d'épargne, prime de participation • Nos plus : forfait mobilité douce & Green (vélo/trottinette et covoiturage), prime de cooptation de 1000 € brut, e-shop de matériel informatique à des prix préférentiels (smartphone, tablette, etc.) • Votre carrière : plan de carrière, dispositifs de formation techniques & fonctionnels, passage de certifications, accès illimité à Microsoft Learn • La qualité de vie au travail : télétravail avec indemnité, évènements festifs et collaboratifs, accompagnement handicap et santé au travail, engagements RSE Référence de l'offre : 8qsiax1adn
Freelance

Mission freelance
Chef de projet Data H/F Freelance Poitiers (86)

Wekey
Publiée le
Gestion de projet

6 mois
460-500 €
Poitiers, Nouvelle-Aquitaine
Hello ! Nous c’est WEKEY ! Nous ne sommes ni une ESN ni un cabinet de recrutement. Aaah mais qui sommes-nous alors ? Pour tout savoir sur nous et votre future mission c’est par ici 😁⬇ Vous êtes chef de projet Data H/F et vous recherchez une mission en freelance ? Nous avons le projet qu’il vous faut pour l'un de nos clients basé à poitiers. CE QUI VOUS ATTEND 👀 Dans le cadre de la mission votre rôle sera : Cadrage & Analyse Métier Recueillir et comprendre les besoins des Directions Métiers. Identifier les enjeux fonctionnels et les traduire en exigences claires. Animer les ateliers de conception et les comités Projet. Modélisation & Architecture Fonctionnelle Concevoir et modéliser les structures Data : Data Lake, Datamarts métiers, modèles relationnels. Définir les règles de gestion : déduplication, qualité, normalisation, RGPD… Rédaction & Spécifications Rédiger l’ensemble des livrables : contrats d’interface, spécifications fonctionnelles et techniques. Garantir la qualité, la pertinence et la cohérence documentaire. Pilotage & Coordination Organiser, suivre et orchestrer les projets Data end-to-end. Piloter une équipe transverse : Data Engineers & Data Managers. Réaliser les recettes fonctionnelles et s’assurer de la conformité. Accompagnement & Acculturation Aider les métiers à monter en compétence sur les solutions Data mises à disposition. Diffuser les bonnes pratiques, contribuer à l'amélioration continue. Participer à l’animation de la communauté Data. Engagement & Qualité Garantir le respect des engagements coûts / délais / qualité. Contribuer à l’évolution des méthodologies internes de la Data Factory.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

7262 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous