Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 7 002 résultats.
CDI

Offre d'emploi
Data engineer H/F

HAYS France
Publiée le

50k-60k €
Nantes, Pays de la Loire
Rattaché au Responsable Industrielle, vos missions sont les suivantes : Construire et piloter la stratégie d'exploitation des données industrielles, Prioriser les demandes des utilisateurs et traiter les incidents, Maintenir et faire évoluer l'architecture Edge (Hybride On Premise et Cloud) nécessaire à la valorisation de données, Gérer et organiser les données industrielles et les flux de données entrants et sortants (SQL Server, SSIS, Historian), Consolider les différentes sources de données On Premise dans la Datalake Azure et Cubes de données, Participer à la conception des reportings en lien avec les services métiers (amélioration continue, process, qualité, production…), Optimiser et pérenniser les systèmes existants en temps réel, Assurer l'accompagnement des utilisateurs clés.
Freelance

Mission freelance
Data Analyst - confirmé - freelance - Rouen H/F

GROUPE ARTEMYS
Publiée le

1 mois
76000, Rouen, Normandie
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées. Contexte de la mission : Le pôle Data & BI de notre client est engagé dans une dynamique de renforcement pour 2026, avec des enjeux forts autour de la structuration des usages BI, de la consolidation des données et de la mise à disposition de la donnée aux métiers dans une logique de self-BI. Les travaux portent à la fois sur la refonte de l’existant et sur la construction de nouvelles briques data, avec une volonté claire de professionnaliser les pratiques et de sortir progressivement d’un fonctionnement trop orienté production. Objectif de la mission : En tant que Data Analyst / BI Engineer, vous intervenez comme profil de construction au cœur de l’ingénierie data : Concevoir et structurer les modèles de données analytiques Fiabiliser les chaînes de traitement de données Mettre à disposition une donnée exploitable et autonome pour les métiers Contribuer à la mise en place de process data robustes (build / run / fiabilisation) Votre mission (si vous l’acceptez) : Build Conception et développement des pipelines d’ingestion et de transformation Construction de bases de données analytiques Modélisation décisionnelle (modèle en étoile) Conception de cubes pour la mise à disposition de la donnée métier Développement orienté Python, avec une approche code-first et versionnée (Git) Run Maintien et évolution des traitements existants Supervision et optimisation des flux de données Contribution à la stabilité de la plateforme data Fiabilisation (enjeu clé du poste) Mise en place de contrôles de qualité de données Sécurisation et structuration des process Contribution à la réduction des interventions directes en production Vous, notre perle rare : Compétences techniques Expérience confirmée en Data / BI Maîtrise de la conception de bases de données analytiques Solide pratique de la modélisation décisionnelle Expérience en Python appliqué au traitement de données Sensibilité forte aux bonnes pratiques de développement logiciel Compétences fonctionnelles Capacité à comprendre les enjeux métiers et à les traduire en modèles data Appétence pour les sujets de construction et de structuration Intérêt marqué pour la qualité et la fiabilité de la donnée Soft skills Esprit structurant et pragmatique Capacité à travailler dans un contexte en transformation Goût pour les environnements techniques exigeants et évolutifs Environnement technique : Cloud : Azure / Data Fabric Ingestion & orchestration : outils Azure, usage orienté code (non low-code) Langage : Python Modélisation : data marts, modèles en étoile, cubes Méthodologie : pratiques issues du développement logiciel (Git, traçabilité, structuration) Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération et conditions : TJ en fonction de votre expertise sur un poste similaire Prise de poste ASAP Freelance / Portage 3 mois renouvelable Mode de travail hybride, 1 journée de télétravail par semaine Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
CDI

Offre d'emploi
Analyste data finance (F/H/X)

Talents Finance
Publiée le

35k-55k €
Paris, France
Vos missions : Préparation d’un plan de travail de correction des données Collecter et centraliser les données financières statiques, nécessaires à l’optimisation de l’ERP de l’entreprise Saisir, mettre à jour, vérifier la cohérence, contrôler la qualité des données Catégoriser et structurer les données pour faciliter leur analyse et exploitation stratégique Créer et mettre à jour des manuels de gestion de données Participer à la création d'un système d'analyse de la qualité des données Analyser des données simples existantes et rechercher des écarts de données Modéliser les bases de données financières et en assurer les mises à jour régulières, pour répondre aux besoins évolutifs Interagir directement avec les utilisateurs finaux, pour comprendre leurs besoins spécifiques et construire une relation de confiance Autres informations : Département : Technologie de l'information Type de contrat : Contrat à durée indéterminée (CDI), Temps plein Durée du contrat : indéterminée Date de début : dès que possible Horaire : 8H00-12H00 et de 12H50-16H50 du lundi au jeudi et 8H00-12H00 et de 12H50-15H50 le vendredi (soit un total de 39H par semaine) Localisation du poste : Nogent-sur-Seine, Aube (10), Grand Est, France - proche Romilly-sur-Seine (10), Troyes (10), Sézanne (51), Montereau-Fault-Yonne (77), Nangis (77), Provins (77) et Sens (89), 54 min direct de Paris en train Déplacement : à Nogent-sur-Seine Télétravail : non Poste ouvert aux personnes en situation de handicap
Freelance

Mission freelance
EXPERT RESEAU & COMMUNICATIONS UNIFIEES H/F

AXONE BY SYNAPSE
Publiée le
Architecture ARM
Check Point
Cisco

3 mois
650-700 €
Marseille, Provence-Alpes-Côte d'Azur
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée un Expert Réseau & Communications Unifiées H/F. Au sein d’un grand groupe international intégré à l’équipe réseau IT globale, l’expert interviendra sur un programme stratégique de transformation des Communications Unifiées. La mission couvre l’évolution des infrastructures ToIP, la modernisation des solutions de visioconférence, la refonte des architectures de téléphonie et l’accompagnement des migrations vers des solutions unifiées et centralisées. L’expert participera activement aux projets d’évolution ToIP/Visio, analysera les besoins métiers, rédigera les spécifications fonctionnelles et techniques, assurera l’implémentation des demandes techniques et prendra en charge le support niveau 3 sur les incidents complexes. Objectifs et livrables: Contribution aux streams de transformation UC (PSTN, équipements, refonte solution) Plans de migration validés et exécutés selon planning Documentation technique et fonctionnelle mise à jour Maintien en conditions opérationnelles des infrastructures ToIP/Visio Support N3 avec analyses techniques et RCA formalisés Compétences attendues: Maîtrise des environnements ToIP : Microsoft Teams, Direct Routing, SIP, H323 Administration et configuration SBC Audiocodes (ARM, OVOC) Expertise Cisco : Call Manager, CME, Unity Connection, SME, Expressway, Voice Gateway, Jabber Solutions Contact Center : Nice CXone, Cisco UCCX, Finesse Visioconférence : CVI (Bluejeans, PexIP), Microsoft Teams Rooms Compétences réseaux : LAN/WIFI (switching, routing) SD-WAN : VeloCloud Sécurité : Palo Alto, Checkpoint, Fortinet (VPN, IPS) Proxy & accès distant : Zscaler ZIA / ZPA Gestion des incidents, problèmes et changements (ITIL)
Freelance

Mission freelance
Consultant – Data Monetization & Snowflake Pricing Strategy

Mon Consultant Indépendant
Publiée le
Data analysis
IA

1 mois
1 050-1 090 €
Courbevoie, Île-de-France
Consultant – Data Monetization & Snowflake Pricing Strategy Mission freelance Contexte : Un éditeur logiciel développe une offre de data sharing permettant à ses clients d’accéder à des données en temps réel via une plateforme data basée sur Snowflake. Dans ce contexte, l’entreprise souhaite structurer le modèle économique de cette offre, en définissant un modèle de pricing cohérent entre : · Les coûts d’infrastructure Snowflake · L’usage réel des données · La valeur business apportée aux clients La mission vise à définir une stratégie de monétisation durable pour l’accès et l’exploitation de ces données. Objectifs de la mission : Le consultant interviendra pour : · Analyser les coûts techniques liés à l’usage de Snowflake · Comprendre les patterns d’usage des données par les clients · Définir un modèle de pricing pour l’accès et l’exploitation des datasets · Identifier les scénarios de monétisation possibles (data sharing, analytics, IA, etc.) L’objectif est de concevoir un modèle économique équilibré entre coût d’infrastructure, valeur client et potentiel de croissance commerciale. Travaux attendus : Le consultant devra notamment : · Analyser le modèle de pricing Snowflake (compute, storage, data sharing) · Modéliser différents scénarios de consommation de data · Définir plusieurs modèles de pricing possibles · Évaluer l’impact économique selon différents niveaux d’usage · Recommander une stratégie de monétisation de la data Exemples de modèles étudiés : · Pricing basé sur l’usage · Packages de données · Accès premium à certaines données · Pricing lié aux capacités analytiques ou IA Profil recherché : Nous recherchons un consultant ayant déjà travaillé sur des problématiques de monétisation de la data dans des environnements SaaS ou data platform. Expériences pertinentes : · Définition de modèles de data monetization · Stratégie de data sharing · Pricing de produits data ou analytics · Plateformes Snowflake / Databricks / data cloud Compétences attendues : · Compréhension des architectures data platform · Connaissance du modèle économique Snowflake · Expérience en usage-based pricing · Capacité à modéliser des scénarios économiques · Capacité à traduire les coûts techniques en modèles commerciaux Profil type : Le consultant peut venir de : · Conseil en stratégie data · Éditeur SaaS utilisant Snowflake · Plateforme data / analytics · Equipes data product ou data monetization
Freelance

Mission freelance
MLOps / Tech Lead Plateforme IA

Cherry Pick
Publiée le
CI/CD
Data governance
Data Lake

12 mois
550-610 €
Paris, France
Contexte et enjeux Notre client en assurance s’est engagé dans un projet stratégique majeur visant à accélérer et industrialiser le déploiement des cas d’usage de la Data Science et de l’Intelligence Artificielle (Machine Learning et LLM). Ce programme ambitieux repose sur la mise en œuvre de socles technologiques robustes, sécurisés et scalables : MLOps LLMOps Environnements Python industrialisés L’objectif est de fournir une plateforme mutualisée et standardisée permettant le développement, l’entraînement, le déploiement et le monitoring des modèles d’IA, utilisable par l’ensemble des équipes Data & IA du client. Dans ce cadre, notre client en assurance recherche un Consultant expert pour prendre en charge la gestion et l’animation de l’équipe dédiée à la plateforme MLOps . Ce rôle est stratégique pour la réussite du projet et la pérennisation des socles en mode RUN. Responsabilités principales 1. Management et animation de l’équipe MLOps Structurer et encadrer l’équipe MLOps (MLOps Engineers, Data Engineers, etc.) Définir les rôles et responsabilités Organiser et planifier les activités, répartir les charges et suivre l’avancement Mettre en place et animer les rituels agiles (daily stand-ups, sprint reviews, rétrospectives) Favoriser la montée en compétences et la diffusion des bonnes pratiques 2. Pilotage technique de la plateforme MLOps / LLMOps Définir l’architecture technique de la plateforme en collaboration avec les architectes et les équipes Data & IA Sélectionner et intégrer les outils et technologies MLOps / LLMOps pertinents Garantir la disponibilité, la scalabilité, la sécurité et la performance de la plateforme Assurer la conformité aux normes de sécurité, de gouvernance des données et de réglementation (RGPD) Définir, suivre et analyser les KPIs de la plateforme et des modèles déployés 3. Delivery du socle MLOps et des cas d’usage Garantir le déploiement des composants du socle MLOps industriel , en lien avec l’ensemble des parties prenantes DSI Organiser la réintégration des cas d’usage déjà en production dans le nouveau socle (compatibilité ascendante) Piloter le déploiement et la gestion opérationnelle de la plateforme MLOps, en autonomie et en coordination avec la DSI Accompagner l’industrialisation et la mise en production des cas d’usage IA 4. Roadmap, gouvernance et pilotage Définir et mettre en œuvre la roadmap MLOps / LLMOps , en adéquation avec les besoins des équipes Data & IA Piloter un portefeuille de projets techniques Gérer les budgets et l’allocation des ressources Animer les instances de pilotage (Comité Projet, Comité de Pilotage) S’appuyer sur les outils de suivi : SCIFORMA (planning et suivi budgétaire), JIRA (suivi des tâches) 5. Communication et coordination Interagir avec les équipes Data Scientists, Data Analysts, Architectes, Sécurité et Opérations Présenter l’avancement et les résultats aux parties prenantes internes (direction, métiers) Animer des ateliers de partage de connaissances et de bonnes pratiques Accompagner l’adoption de la plateforme par les équipes Data & IA Livrables attendus Organisation cible et plan de charge de l’équipe MLOps Roadmap détaillée de la plateforme MLOps / LLMOps Documentation technique et fonctionnelle Rapports d’activité et tableaux de bord de suivi Propositions d’architecture et de choix technologiques Processus et procédures MLOps / LLMOps formalisés Supports de formation et de sensibilisation
Freelance
CDI

Offre d'emploi
Business Data Analyst Pré‑Trade Énergie & Commodities

WHIZE
Publiée le
Big Data
Finance

3 ans
Paris, France
Le Business Analyst Pré‑Trade intervient au cœur des activités Front‑to‑Middle sur les marchés de l’énergie (électricité, gaz, pétrole, émissions, garanties d’origine). Il accompagne les desks trading dans l’analyse, la structuration et l’évolution des processus pré‑trade, ainsi que dans la gestion et la qualité des données de marché. Ses missions couvrent l’analyse fonctionnelle, la compréhension des produits énergie, la modélisation des données, et l’amélioration continue des systèmes ETRM/CTRM. Le rôle est orienté trading, opérationnel et data , sans dimension Risk. Missions principales Analyser les besoins des desks Power, Gas, Oil, Emissions et Renewables. Étudier les mécanismes des marchés spot, intraday, day‑ahead, balancing et dérivés énergie. Documenter et optimiser les workflows pré‑trade : saisie d’ordres, enrichissement, contrôles, validation. Analyser les contract features des produits énergie : profils horaires, règles de livraison, indexations, contraintes physiques. Structurer et fiabiliser les market data énergie : prix spot/forward, courbes, données fondamentales, données issues des plateformes (EPEX, ICE, NordPool…). Comprendre et documenter le fonctionnement de l’ order book : profondeur, liquidité, matching. Réaliser des analyses data (SQL, Python) et produire des dashboards pour les équipes trading. Rédiger des spécifications fonctionnelles (user stories, règles métier, mapping de données). Participer aux phases de tests (UAT, non‑régression) et accompagner les utilisateurs lors des déploiements.
Freelance

Mission freelance
Administrateur système et réseau N2

Ness Technologies
Publiée le
Administration réseaux
Administration système
OS Windows

6 mois
Paris, France
Fiche de mission – Administrateur Systèmes Windows N2 (H/F) Localisation : Paris Durée : 4 à 6 mois Démarrage : À définir Contexte de la mission Nous recherchons un Administrateur Systèmes N2 orienté Windows . La mission est principalement axée sur l’administration systèmes (80%) avec une part complémentaire sur les sujets réseaux (20%). Missions principalesAdministration Systèmes (80%) Assurer l’exploitation et l’administration des environnements Windows (niveau N2) Gérer les incidents, demandes et problèmes via l’outil de ticketing Participer au maintien en conditions opérationnelles (MCO) des infrastructures Réaliser les actions d’administration courante (comptes, droits, services, correctifs, supervision) Participer aux mises à jour, patch management et opérations de maintenance Documenter les procédures et les actions réalisées Support Réseaux (20%) Prendre en charge les incidents réseaux de premier niveau avancé Effectuer les diagnostics de connectivité (LAN/WAN, VPN, DNS, DHCP) Escalader vers les équipes expertes si nécessaire Environnement technique Systèmes Windows Server Active Directory (GPO, gestion des comptes et droits) Environnements Microsoft (DNS, DHCP) Outils Outil de ticketing (ITSM) Outils de supervision Patch management Réseaux – connaissances attendues Bases TCP/IP LAN / VLAN VPN Diagnostic de connectivité
Freelance

Mission freelance
DATA MESH PLATFORM MANAGER

Codezys
Publiée le
Azure
Cloud
Data governance

12 mois
Courbevoie, Île-de-France
Contexte de la mission Le Groupe met en place une Self-Service Data Platform basée sur les principes du Data Mesh , appelée Group Data Platform (GDP) . La mission vise à concevoir, construire, déployer et exploiter cette plateforme à l’échelle de l’entreprise. Le Data Mesh Platform Manager sera responsable de la mise en œuvre, de l’adoption et du pilotage de la plateforme dans un environnement multi-cloud (AWS/Azure) et hybride, incluant des systèmes on-premise. Objectifs et livrables Construction et delivery de la plateforme Data Mesh : conception de l’architecture, définition des capacités, standards techniques, garantissant scalabilité, performance et sécurité. Livrables : ADR, architecture de référence, roadmap, standards techniques. Architecture cloud et hybride : conception, pilotage des déploiements sur AWS et Azure, intégration des systèmes on-premise, automatisation via Infrastructure as Code. Livrables : blueprint, framework de sécurité, conformité. Delivery et pilotage : gestion du cycle de deliverables, priorisation, suivi de la performance et gestion des incidents. Livrables : roadmap, plan de release, indicateurs de fiabilité. Déploiement dans les domaines métiers : accompagnement des équipes, création de data products, onboarding, résolution des problématiques d’adoption. Livrables : frameworks d’onboarding, playbooks, KPI d’usage, supports de formation. Product management et évolution : recueil des besoins, définition de la vision, mesure de la valeur, améliorations continues. Livrables : vision produit, KPI, feedbacks, roadmap d’évolution. Gouvernance et documentation : documentation des capacités, conformité avec la Data Governance fédérée. Livrables : référentiel, standards, frameworks, playbooks. Communication et reporting : suivi de l’avancement, reporting aux gouvernances, alignement des parties prenantes. Livrables : dashboards, présentations, suivi des décisions. Promotion et évangélisation interne : valorisation de la plateforme, développement de la communauté. Livrables : supports de communication, stratégies d’adoption, démonstrations, cas d’usage.
Freelance
CDI

Offre d'emploi
Data Scientist

Lùkla
Publiée le
Azure DevOps
CI/CD
Databricks

3 ans
47k-64k €
100-520 €
Paris, France
Dans le cadre de sa stratégie Data & IA, notre client dans le secteur bancaire renforce ses équipes pour concevoir, entraîner, déployer et monitorer des modèles de Machine Learning, et intégrer les solutions d’IA Générative dans ses parcours clients et processus métiers. Vous rejoignez une équipe Data innovante, à la croisée des enjeux opérationnels, réglementaires et technologiques. Environnement technique : Modélisation & IA : Logistic Regression, XGBoost / LightGBM, SHAP, LIME, LLM (OpenAI, HuggingFace), LangChain, LangGraph ML Engineering : Python, Scikit-learn, MLflow, FastAPI, Pytest, GitHub Actions, Docker, Kubernetes Cloud & Big Data : Azure ML, Databricks, pySpark, Azure DevOps, Snowflake (atout) MLOps : CI/CD, Feature Store, API ML, Monitoring Drift, Backtesting, RAGAS, LLM as a Judge
CDI

Offre d'emploi
Ingénieur Réseau & Cybersécurité OT / Cloud H/F

CONSORT GROUP
Publiée le
Supervision
VPN IPsec

75017, Paris, Île-de-France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de Consortis, sont au cœur des enjeux actuels de Cybersécurité, Virtualisation & Cloud, Systèmes, Réseaux et Télécom, ainsi que sur les environnements Digital Workplace. Les compétences RPA et DevOps viennent renforcer ces offres pour accélérer l’agilité et l’efficacité opérationnelle des services délivrés. Ingénieur Réseau & Cybersécurité OT / Cloud H/F C’est votre mission Vous êtes passionné·e par les environnements réseaux critiques, la cybersécurité et les architectures hybrides Cloud / OT ? Ce poste est fait pour vous. En tant qu’ Ingénieur Réseau & Cybersécurité OT / Cloud , vous êtes responsable de la conception, de la sécurisation et du maintien en conditions opérationnelles de notre écosystème réseau industriel et Cloud. Côté build : Concevoir et déployer des architectures sécurisées basées sur les solutions FortiGate , FortiManager et FortiAnalyzer Définir et implémenter des architectures AWS (VPC, VPN IPSec, Transit Gateway, Security Groups) Mettre en place des interconnexions sécurisées IT/OT Concevoir des architectures haute disponibilité pour environnements industriels critiques Participer à la segmentation réseau et au durcissement des infrastructures Intégrer les contraintes SCADA (PCVue, Topkapi) dans les architectures réseau Rédiger les dossiers d’architecture, procédures d’exploitation et standards de sécurité Côté run : Administrer et maintenir les infrastructures réseau et sécurité (Fortinet & AWS) Superviser et analyser les logs de sécurité Gérer les incidents réseau et cybersécurité en environnement critique Maintenir les VPN IPSec inter-sites et Cloud Garantir la haute disponibilité et la continuité de service Assurer les mises à jour, patching et évolutions de configuration Participer aux audits de sécurité et aux plans d’amélioration continue C’est votre parcours Vous avez au moins 5 à 10 ans d’expérience dans des environnements réseaux et cybersécurité exigeants, idéalement en contexte industriel / OT. Vous aimez concevoir des architectures robustes, sécuriser des environnements critiques et intervenir dans des contextes à forts enjeux de disponibilité. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration transverse (IT, OT, sécurité, exploitation). C’est votre expertise : Expertise avancée des solutions Fortinet Maîtrise AWS : VPC, VPN IPSec, Transit Gateway, Security Groups Réseaux industriels / OT Connaissances SCADA (PCVue, Topkapi) appréciées Architectures haute disponibilité & réseaux critiques Culture cybersécurité réseau (segmentation, bastion, durcissement, supervision) C’est votre manière de faire équipe : Rigueur et sens des responsabilités en environnement critique Capacité d’analyse et gestion des priorités en situation d’incident Esprit collaboratif avec équipes IT, OT et cybersécurité Pédagogie et capacité à vulgariser des sujets techniques complexes Proactivité et culture d’amélioration continue C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Ile de france Contrat : CDI Télétravail : Hybride Salaire : De 50 K€ à 55 K€ (selon expérience) brut annuel Famille métier : [Réseau/ securité / cybersecurité] Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance

Mission freelance
Expert Réseau & CI/CD - Paris H/F

GROUPE ARTEMYS
Publiée le
Ansible
Aruba
Cisco

24 mois
550-600 €
75010, Paris, Île-de-France
Qui sommes-nous ? On est une ESN spécialisée dans le domaine des infrastructures à taille humaine, avec plus de 30 ans d’histoire. Mais ce qui fait notre vraie différence ? On ne se contente pas de dire qu’on valorise nos collaborateurs, on le prouve au quotidien. Chez Artemys , on crée un univers où l’humain passe avant tout . Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. 📍 Le terrain de jeu ? Notre siège est situé au cœur du dynamique 10e arrondissement de Paris, mais nos opportunités de postes s'étendent dans tous les arrondissements parisiens et la proche banlieue. Votre mission (si vous l’acceptez) : Développer et maintenir des pipelines CI/CD dédiés aux infrastructures réseau. Mettre en place et améliorer des approches Infrastructure as Code (IaC) . Automatiser les opérations réseau via Ansible, Python et autres outils DevOps. Industrialiser les déploiements et standardiser les configurations réseau. Participer à la refonte et modernisation du LAN . Contribution aux projets SDN , NAC , segmentation, sécurisation réseau. Intégration et optimisation d’architectures complexes (Cisco, Aruba, Juniper). Accompagnement des équipes projet et partage de bonnes pratiques d’automatisation. Assurer un support de niveau 3 sur les infrastructures réseau. Rédiger et maintenir une documentation technique complète et structurée. Participer à une astreinte (selon organisation). L’environnement technique : Cisco , Aruba , Juniper Architectures LAN, WLAN, WAN, SDN Solutions NAC : ClearPass , Cisco ISE Ansible , Python , Terraform Environnements de versioning et CI/CD : Git , Jenkins Vous, notre perle rare : Vous avez 10 ans d’expérience (minimum) en environnement challengeant Vous avez déjà travaillé avec des grands comptes Vous parlez anglais (niveau conversationnel) Vous êtes rigoureux, agile, force de proposition et à l’aise à l’écrit Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : 65 000 - 70 000 €/an (Selon votre expertise) 550 - 600 €/J Sans négliger les avantages indispensables : Carte SWILE (Tickets Restaurant, transports et CE). 12 RTT, Mutuelle Groupe, Participation Groupe. Accompagnement RH, suivi managérial de proximité (Méthode Agile) Événements entreprise : Afterworks, Tech Meetups, soirées d’intégration, events sportifs, soirées gaming… Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
CDI

Offre d'emploi
Analyste Data & Reporting (Power BI / ITSM Obligatoire) 4 ans minimum en CDI - H/F

TOHTEM IT
Publiée le

40k-45k €
Toulouse, Occitanie
Dans le cadre de l’amélioration continue des activités de pilotage et d’architecture au sein de la DTO, nous recherchons un(e) Analyste Data & Reporting spécialisé(e) Power BI capable de conduire des études techniques ciblées ayant un impact sur l’architecture . La mission consiste à réaliser des analyses techniques à forte valeur ajoutée , permettant de répondre à des problématiques spécifiques et d’orienter les décisions d’architecture et de pilotage. Missions : Vous interviendrez notamment sur les activités suivantes : Data & Reporting : Analyse et amélioration continue des tableaux de bord Power BI de la DTO Production et fiabilisation des indicateurs d’Engagement de Services Production des indicateurs de pilotage Support ITSM Analyse des données et identification d’axes d’amélioration Études techniques : Réalisation de petites études techniques ciblées Analyse d’impact sur l’architecture existante Proposition de pistes d’amélioration ou d’évolution Documentation et valorisation : Rédaction des modes opératoires d’exploitation des données Formalisation et communication des résultats
Freelance

Mission freelance
Analytics Engineer – Data & BI

SKILLWISE
Publiée le
Azure Data Factory
Azure DevOps
Databricks

3 mois
100-600 €
Paris, France
Nous recherchons un Analytics Engineer pour rejoindre une équipe dédiée à la centralisation et à la fiabilisation des données dans un environnement data-driven. Votre mission consistera à concevoir et maintenir des pipelines de données (Azure Data Factory, Databricks, Spark SQL) pour alimenter un datamart utilisé par les métiers via des outils self-BI (Power BI, BusinessObjects). Vos missions principales : Concevoir et développer des pipelines d’ingestion via Azure Data Factory , en assurant leur robustesse et leur évolutivité. Transformer et optimiser les données en utilisant Spark SQL (Databricks) pour répondre aux besoins métiers. Maintenir et améliorer les indicateurs de qualité des données , en garantissant leur cohérence et leur fiabilité. Implémenter des tests unitaires pour sécuriser les pipelines et assurer la stabilité des solutions. Collaborer avec les équipes techniques et métiers pour affiner les besoins et proposer des améliorations continues. Participer à la maintenance des outils de monitoring pour suivre les performances et la santé des applications. Ce poste est idéal pour un professionnel souhaitant impacter directement la stratégie data d’une organisation en pleine transformation digitale.
Freelance

Mission freelance
Data Architect (Secteur Luxe)

Nicholson SAS
Publiée le
Azure DevOps
Git
Github

8 mois
1 200 €
Paris, France
Pour le compte de l’un de nos clients basé à Paris, nous recherchons un Data Architect (Secteur de Luxe) afin d’intervenir sur une mission stratégique autour de l’architecture et de la valorisation des données. Missions: Concevoir et mettre en œuvre des solutions de données de bout en bout dans Azure Fabric (Lakehouse, Data Warehouse, modèles sémantiques). Intégration avec Power BI et modèles d'évolutivité. Définir les zones/hiérarchie de données (couches Bronze, Argent, Or). Établir des cadres de gouvernance des données. Modélisation des données et conception de pipelines ETL/ELT. Définir la logique de transformation et les règles métier. Gérez les charges incrémentielles, les dimensions et les contrôles de qualité. Optimisez les performances des requêtes et l’efficacité du stockage. (Outils : SQL, Python (PySpark), Azure Data Factory, Fabric Notebooks, dbt). Expertise en développement Python et SQL : rédigez des scripts Python efficaces (PySpark) pour la transformation des données dans Fabric Notebooks. SQL pour les requêtes complexes, les agrégations et l'optimisation des performances. Développer des bibliothèques de code et des fonctions réutilisables. Gérer la validation de la qualité des données et la gestion des erreurs. Représentation du fata dans la propriété finale du tableau de bord. Gestion du pipeline CI/CD et du contrôle de version GitHub : mettre en œuvre des flux de travail CI/CD pour le déploiement de produits de données. Gestion des référentiels de codes, stratégies de branchement. Suivre les modifications et maintenir des pistes d'audit. Outils : GitHub, Azure DevOps Pipelines, GitHub Actions, Git CLI, règles de protection des branches. Gouvernance des données, sécurité et contrôle d'accès basé sur les rôles (RBAC) : définissez des politiques de gouvernance pour le traçage des données, la gestion des métadonnées et les normes de qualité des données. Implémentez le contrôle d’accès basé sur les rôles (RBAC) pour les espaces de travail et les ensembles de données Fabric. Configurez la sécurité au niveau de l’espace de travail, de l’ensemble de données et des lignes. Établir des schémas de classification des données.Outils : Azure Fabric RBAC, Azure AD/Entra ID, Purview (gouvernance des métadonnées), rôles d'espace de travail Fabric, Power BI RLS (Row-Level Security). Cartographie des données E2E et définition des KPI : Documentez le lignage complet des données depuis les systèmes sources (D365, bases de données héritées) jusqu'aux magasins de données finaux. Créez des documents de cartographie détaillés (champs sources → colonnes cibles). Définissez la logique métier et les règles de transformation à chaque couche. Identifier et définir des KPI alignés avec les objectifs business. Établir la logique de calcul, les seuils et le suivi des KPI. Créez des dictionnaires de données et des glossaires métier. Outils : Confluence (documentation), Visio/Lucidchart (diagrammes de flux de données), Excel (matrices de cartographie), Power BI (tableaux de bord KPI). Documentation du cadre, normes et composants de ressources : établir des normes d'architecture de données et une documentation sur les meilleures pratiques. Conventions de dénomination, structures de dossiers, modèles de conception. Créez des modèles pour les blocs-notes, les scripts SQL et les fichiers de configuration. Définir les règles de qualité des données et les cadres de validation. Documenter les procédures de déploiement, les guides de dépannage et les runbooks. Tenir à jour les enregistrements de décisions d'architecture (ADR). Fournir des guides d'intégration pour les nouveaux membres de l'équipe. Profil : Data Architect Nombre d’années d’expérience : +7 ans Site : Paris ; sur site Prix d’achat max : 1200 euros Date de démarrage : asap Date de fin : 31/12/2026 Compétences techniques requises : Microsoft Azure Microsoft Azure Service Fabric Azure DevOps Pipelines SQL PySpark Git CLI, GitHub Power BI RLS
CDI
Freelance

Offre d'emploi
Analyste Data

CAT-AMANIA
Publiée le
Big Data
Microsoft Power BI
PySpark

2 ans
40k-48k €
400-550 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Analyste Data pour intégrer l’équipe Analyse de la Donnée. Rattaché à l’équipe, vous serez en charge de mettre en œuvre des cas d’usage métier via le croisement de données, développer et maintenir des produits DATA réutilisables, et restituer vos analyses à travers des dashboards et dataviz. Vous accompagnerez également les équipes métiers dans l’acculturation DATA tout en respectant les normes et bonnes pratiques de l’équipe. Maîtrise de Python, PySpark, SQL , expérience sur Big Data Hadoop (Cloudera) et compétences en Power BI sont requises, ainsi qu’une solide expertise en data science et analyse de données.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

7002 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous