L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 768 résultats.
Offre d'emploi
Développeur Python - Data & Automation
VISIAN
Publiée le
Python
1 an
Paris, France
Contexte Développeur en charge de la gestion des scripts internes, de l’intégration de LLM et des tâches d’automatisation sur les flux de données et les processus, ainsi que des interactions API avec des sources externes. Mise en place de contrôles et de rapports sur la qualité des données. Contribution au développement des outils internes de l’équipe, tels que les processus de communication (mailing de masse), site web, planification d’équipe, etc. Objectif : Un développeur senior avec une solide compréhension des projets pilotés par les données, de l’automatisation, des référentiels IT et des exigences de gestion de services, pour travailler sur le développement interne de pipelines d’intégration et d’interfaces dans l’écosystème d’une grande banque d’investissement. Périmètre : Global, rôle exigeant une collaboration avec les clients internes de la banque d’investissement à l’échelle mondiale, nécessitant un anglais professionnel.
Offre d'emploi
Développeur Fullstack React / Node.js – Applications Data
adbi
Publiée le
API REST
AWS Cloud
CSS
12 mois
38k-46k €
400-500 €
Paris, France
Nous recherchons un Développeur Fullstack React / Node.js pour intervenir sur la conception, la migration et le développement d’applications web orientées data. Vous interviendrez sur un ensemble d’applications déjà existantes, initialement développées avec un framework de prototypage, que vous ferez évoluer vers une stack web moderne afin d’offrir une meilleure expérience utilisateur, plus de fonctionnalités et une meilleure maintenabilité. Vos principales missions : Analyser l’application existante (fonctionnel et technique) et proposer une stratégie de migration vers React (front-end) et Node.js (back-end). Concevoir et développer l’interface utilisateur en React (components, hooks, intégration d’API, gestion d’état). Développer et maintenir des API REST en Node.js pour exposer les données nécessaires aux applications. Participer à la mise en place et au déploiement sur un environnement cloud (type AWS), en appliquant les bonnes pratiques de performance, sécurité et supervision. Contribuer aux phases de tests, de recette et de mise en production. Rédiger la documentation technique et partager les bonnes pratiques au sein de l’équipe. Vous travaillerez au sein d’une équipe pluridisciplinaire (product, data, tech) et serez responsable de la livraison de bout en bout sur votre périmètre. Anglais courant
Offre d'emploi
Data Analyst SAS - Anglais courant
Synchrone recrutement
Publiée le
Dataiku
Dremio
SAS
40k-60k €
Paris, France
L'équipe est chargée du pilotage mensuel du risque via la mise à jour du datamart risque et des reportings associés. Pour cela, un RUN mensuel, actuellement composé de programmes SAS, devra perdurer en parallèle des développements induits par les nouveaux usages data (nouvelles expositions de données, nouveaux outils de préparation tels que DREMIO-DATAIKU, et utilisation de Power BI Report Server). Cette mission a pour objectif : · Développer des flux Dataiku et des rapports Power BI afin de contribuer au pilotage mensuel du risque. · Assurer le transfert et la réécriture des programmes SAS existants vers Dataiku, en tenant compte de la complexité de certains codes et des logiques métier sous-jacentes. · Documenter la construction et le fonctionnement des mises en place pour garantir la pérennité et la maintenabilité des solutions. L’équipe tient à cœur de développer des suivis automatisés et optimisés. Une intégration au RUN mensuel ainsi qu’une participation aux demandes d’évolutions sur des suivis déjà existants pourront également être réalisées, dans le but de s’imprégner du fonctionnement global de l’équipe. Anglais courant requis ! Prestations demandées : Comprendre le fonctionnement actuel du datamart risque composé de programmes SAS. Dupliquer les RUN actuels sur les nouveaux outils DREMIO et DATAIKU Mise en place d’un rapport Power BI version report server permettant le pilotage mensuel Participation au double run mensuel
Offre d'emploi
Ingénieur Réseau Kubernetes / Cilium (H/F)
UMANTIC
Publiée le
70k-90k €
Montigny-le-Bretonneux, Île-de-France
Dans le cadre d'un projet stratégique de modernisation des infrastructures réseau, nous recherchons un Ingénieur Réseau spécialisé Kubernetes pour intervenir chez un grand acteur du secteur bancaire. Vous rejoindrez une équipe en charge de la mise en place de solutions de networking cloud-native avancées, dans un environnement exigeant en termes de performance, sécurité et scalabilité * Concevoir et déployer des architectures réseau dans des environnements Kubernetes * Mettre en oeuvre et administrer des solutions de type Cilium (ou équivalent) * Exploiter les capacités de eBPF pour optimiser les performances et la sécurité réseau * Définir et implémenter des politiques de sécurité réseau (micro-segmentation, zero trust) * Assurer l'observabilité et le troubleshooting des flux réseau * Collaborer avec les équipes DevOps, sécurité et infrastructure * Participer à l'amélioration continue des architectures en place
Mission freelance
Product Owner- Reseaux -Infra- (F/H)- Nantes
Argain Consulting Innovation
Publiée le
Infrastructure
ITIL
JIRA
6 mois
450-500 €
Nantes, Pays de la Loire
🚀 Contexte de la mission Dans le cadre du renforcement d’une équipe IT dédiée aux environnements réseaux et infrastructures, nous recherchons un(e) Product Owner / Service Owner pour intervenir sur un périmètre stratégique mêlant activités build et run. Vous intégrerez une équipe transverse en charge de services critiques liés aux infrastructures techniques. 🎯 Vos missions🔧 Pilotage du Build Gérer et prioriser le backlog (évolutions et incidents) en collaboration avec les équipes opérationnelles Animer les rituels Agile (affinage des tickets, daily meetings) Recueillir les besoins métiers et techniques, et animer des ateliers de cadrage Assurer la cohérence de la roadmap avec les autres équipes IT Proposer et suivre des indicateurs de performance des services Être force de proposition dans une démarche d’amélioration continue Participer à la synchronisation inter-équipes pour harmoniser les pratiques Animer ponctuellement les échanges avec les utilisateurs et partenaires internes Contribuer au suivi et à l’optimisation des coûts ⚙️ Garant du Run Piloter les incidents majeurs et coordonner les actions de résolution Assurer un reporting en temps réel auprès des parties prenantes Animer les revues post-incidents et intégrer les actions correctives au backlog Suivre et analyser les indicateurs de performance liés aux incidents Participer à l’estimation et au suivi des coûts
Offre d'emploi
Architecte Data Senior AWS / Databricks (H/F)
SMARTPOINT
Publiée le
Architecture
AWS Cloud
Databricks
1 an
40k-45k €
400-550 €
Île-de-France, France
Dans le cadre de projets data à forte valeur ajoutée, nous recherchons un Architecte Data Senior capable de concevoir, implémenter et optimiser des architectures data modernes sur AWS et Databricks . Vous accompagnerez les équipes techniques et métiers dans la mise en place de plateformes data scalables , l’industrialisation des pipelines de données et le développement de cas d’usage avancés en intelligence artificielle et IA générative . Conception d’architectures data Définir et concevoir des architectures data cloud modernes (Data Lake, Lakehouse, Data Platform). Concevoir des architectures scalables sur AWS et Databricks . Définir les standards techniques et bonnes pratiques data . Réaliser des études d’architecture et cadrages techniques . Développement et industrialisation Concevoir et développer des pipelines de données et pipelines d’ingestion . Mettre en œuvre des architectures de traitement de données performantes. Développer des solutions de traitement et d’analyse de données à grande échelle. Contribuer à l’industrialisation des projets via MLOps et DevOps . IA et innovation Concevoir et mettre en œuvre des cas d’usage IA avancés , notamment en IA Générative . Participer au cadrage de cas d’usage data et IA innovants . Implémenter des solutions utilisant LLM, Transformers, RAG ou fine-tuning . Développer des Proof of Concept (PoC) et accompagner leur industrialisation. Expertise technique et accompagnement Réaliser des revues et audits de code . Accompagner les équipes data et projets dans les choix technologiques. Participer à la résolution d’incidents complexes et au support expert . Contribuer à l’amélioration continue des socles techniques et architectures data .
Offre premium
Mission freelance
Ingénieur Systèmes & Réseaux (Freelance)
Buy The Way
Publiée le
Active Directory
Cisco
Intune
6 mois
Paris, France
Nous recherchons un Ingénieur Systèmes & Réseaux freelance pour renforcer une équipe Infrastructure au sein de la DSI. Mission Vous intervenez au cœur de la DSI sur un périmètre mêlant exploitation (Run) et projets d’évolution de l’infrastructure IT. L’objectif est de garantir une infrastructure performante, sécurisée et moderne, au service des activités du cabinet. Responsabilités Maintien en condition opérationnelle de l’infrastructure systèmes & réseaux Administration Microsoft 365 (enjeu central du poste) Gestion de l’environnement hybride : serveurs on-premise + Azure Administration Active Directory / Entra ID Gestion Microsoft Intune (politiques, conformité, sécurité, déploiement applicatif) Gestion des mises à jour, correctifs de sécurité et actions de remédiation Participation aux revues de sécurité Documentation technique Contribution active aux projets d’évolution du SI Projets majeurs à venir 🚧 Infrastructure : renouvellement complet des serveurs 🔐 Identité : migration vers Okta 💻 Modern Management : déploiement / optimisation de Microsoft Intune
Offre d'emploi
Administrateur Systeme et Réseaux
PHOEBE INFORMATIQUE
Publiée le
Administration Windows
LAN
Office 365
45k-55k €
Paris, France
EMBAUCHE EN CDI dans les équipes du client Missions du poste : . Administration Système Windows et Linux · Réaliser des nouveaux projets concernant l’infrastructure · Prendre en charge le suivi opérationnel des projets et sujets transverses à l’équipe production · Assurer le maintien en condition opérationnelle de l’infrastructure · Contribuer à la résolution des incidents de niveau 2 et 3 avec l’aide de nos partenaires extérieurs · Participer à l’installation et le maintien en condition opérationnelle de l’infrastructure informatique au sens large en direct ou avec le soutien de nos partenaires spécialisés · Rédiger des notes techniques dans la base de connaissance · Contribuer à assurer la surveillance de l’infrastructure · Apporter son expertise et son soutien opérationnel aux équipes Infrastructure et Support · Interface avec les équipes métiers de la DSI · Proposer de solutions d’optimisation des systèmes ou des plateformes · Veille technologique
Mission freelance
101684/Data Engineer Data de Google (Google Tag Management, Looker Studio et BigQuery) NANTES
WorldWide People
Publiée le
Google Tag Manager
9 mois
400-440 €
Nantes, Pays de la Loire
Data Engineer Data de Google (Google Tag Management, Looker Studio et BigQuery) NANTES Mission dans le secteur de l'assurance qui consiste à intervenir sur la suite Data de Google (Google Tag Management, Looker Studio et BigQuery) pour optimiser l'exploitation des données dans un environnement agile (SAFe). La mission a lieu à Niort et ne peut pas être réalisée en distancielle mais permet 3 jours de télétravail. Activités confiées : - Collaborer avec l'équipe sur la définition des objectifs et KPI’s pour la mesure des fonctionnalités. - Accompagner la définition des besoins en tracking. - Recetter les données en phase de test des fonctionnalités. - Recetter les données après la mise en production des fonctionnalités. - Préparer et ingérer des données dans BigQuery (en Node JS). - Mettre à disposition des données fiabilisées dans Looker Studio. - Participer à l'analyse des données produites et en tirer des enseignements. - Optimisation et amélioration continue : - Veiller au bon fonctionnement de l'ingestion quotidienne des données et appliquer des correctifs si nécessaire. - Ingérer de nouvelles sources de données nécessaires au monitoring global des KPI’s du train. - Gérer et optimiser les processus existants. - Analyse et communication : - Participer à l'analyse des données issues des monitoring pour en tirer des enseignements. - Participer à l'amélioration continue des tracking, des processus ou du fonctionnement de l'équipe. - Communiquer avec les autres corps de métier (PO, UX, testeurs, architectes, développeurs) dans la construction des features. La mission nécessite que le data Engineer soit autonome sur les technologies suivantes : - Script shell. - Python. - BigQuery. - JavaScript. - Piano Analytics (à créer à la place d'Adobe Analytics). - Looker Studio. - Google Tag Manager.
Offre d'emploi
Administrateur système et réseau (H/F)
ADSearch
Publiée le
40k-50k €
Compans, Île-de-France
Administrateur Système et Réseau H/F – CDI – Seine-et-Marne – Système, Réseau, Administration La division IT de notre bureau Paris recherche pour son client, un grand groupe industiel, un administrateur système et réseau (H/F) en Seine-et-Marne. Sous la responsabilité du Responsable Infrastructure, vous aurez la charge de l’administration, de la supervision et du maintien en conditions opérationnelles des systèmes et réseaux. VOS MISSIONS Vous serez en charge des missions suivantes : Assurer la fiabilité, la performance et la sécurité des infrastructures systèmes et réseaux Garantir la disponibilité optimale des services et le respect des normes de sécurité et de conformité (ISO 27001, NIS2). Réaliser les opérations quotidiennes de supervision, d’administration et de maintenance préventive afin de prévenir les incidents. Déployer, configurer et maintenir les mises à jour des systèmes, serveurs, pare-feu, VPN et équipements réseaux, tout en assurant la continuité de service.
Mission freelance
Data Platform Engineer - Metadata
CAT-AMANIA
Publiée le
Databricks
FastAPI
Github
1 an
100-450 €
Lille, Hauts-de-France
Organisée autour des outils de stockage et de catalogage, l'équipe Datalake est chargée de mettre à disposition le stockage (S3) pour l'ensemble de la data platform et de garantir robustesse et scalabilité. L'équipe Datalake assure la gouvernance technique du patrimoine de donnée et la gestion des métadonnées au travers des data contract. Nous hébergeons et maintenons le repository central de ces derniers. Nous permettons grâce à cela de construire une observabilité de plateforme au travers de l’usage, du lineage etc. Nous avons le besoin de sensibiliser les utilisateurs aux bonnes pratiques que l'équipe met en place sur une modern data stack. Ceci afin d'accompagner au mieux le développement des use cases métiers sur la plateforme. Une appétence data et avoir déjà manipulé des outils tels que databricks est un réel plus. Ta mission sera de Garantir la robustesse du data contract registry (Aurora + Python fastAPI) Monitorer et prendre des actions proactives de management Assurer le support et l'accompagnement tournant sur les outils de l'équipe (S3, Glue, Unity Catalog, data contract registry) Restituer dans le datalake les metadonnées de nos produits Accompagner et former Définir et promouvoir les bonnes pratiques proposées au sein de l'équipe Participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Gouvernance automatisée (Data contract registry, access management, metadata management) Etroite collaboration avec les staff engineer de la plateforme pour le développement de nouvelle features (ADR)
Offre d'emploi
Administrateur Systèmes & Réseaux
AVA6
Publiée le
35k-45k €
Cagnes-sur-Mer, Provence-Alpes-Côte d'Azur
Dans un environnement multi-site en forte croissance, ta mission sera d'intervenir au coeur du systèmes d'information, dans une dynamique de structuration, sécurisation et modernisation de ce dernier. Au quotidien tu auras la charge de répondre aux missions suivantes : Exploitation & MCO - Administration des infrastructures systèmes (Windows Server, Linux) - Gestion des environnements virtualisés (Hyper-V) - Supervision et maintien en conditions opérationnelles des équipements - Gestion des sauvegardes et des plans de reprise (PRA/PCA) Réseaux & sécurité - Administration des équipements réseaux (switchs, firewalls type WatchGuard Technologies) - Gestion des VPN, VLAN, segmentation réseau - Mise en oeuvre des bonnes pratiques ANSSI - Participation au renforcement de la cybersécurité (EDR, MFA, supervision) Support & proximité terrain - Support N2/N3 sur incidents techniques (y compris l'aide à l'intervention sur produits applicatifs métier) - Accompagnement des utilisateurs (150+ utilisateurs multi-sites), y compris sur briques applications métier - Coordination avec prestataires et éditeurs Projets & évolution SI / Transversalité - Participation aux projets d'évolution du SI (déploiement, migration, sécurisation) - Automatisation et industrialisation des tâches - Contribution à la standardisation des pratiques IT groupe - Capacité d'interface / montée en puissance sur les spécificités et applications métier Poste majoritairement sédentaire avec des déplacements à prévoir sur les autres sites (périmètre Alpes-Maritimes).
Offre d'emploi
Cloud Data Engineer AWS H/F
VIVERIS
Publiée le
45k-55k €
Grenoble, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre de projets stratégiques autour de la donnée et de l'intelligence artificielle, un grand groupe industriel renforce ses équipes afin de structurer et valoriser des données issues d'environnements industriels complexes. La mission s'inscrit dans une dynamique de construction et d'optimisation de plateformes data, avec des enjeux forts autour de la qualité, de la volumétrie et de l'exploitation des données pour des cas d'usage avancés (analytics, IA). L'environnement technique repose sur un écosystème cloud AWS, avec des outils modernes de data engineering tels que Databricks et Apache Spark, ainsi qu'une forte culture DevOps. Vous intégrerez une équipe en charge de l'ingestion, du traitement et de l'exposition de données à grande échelle. Responsabilités : - Concevoir et procéder à la maintenance des pipelines de données, de l'ingestion à l'exposition ; - Contribuer à l'optimisation des traitements de données à grande échelle et à la fiabilisation des flux ; - Collaborer avec les équipes data et IA afin de garantir la disponibilité et la qualité des données pour les usages analytiques et machine learning.
Mission freelance
Product Owner "Innovation & Cartographie Réseau" (H/F)
Cherry Pick
Publiée le
Réseaux
12 mois
550-600 €
Paris, France
vous intégrez une équipe en mode squad légère (2 à 3 personnes) pour piloter un projet stratégique et ambitieux : la création "from scratch" d'une plateforme de cartographie réseau moderne. L’objectif est de transformer des données cartographiques complexes en un outil d'intelligence opérationnelle capable de détecter les coupures de fibre en temps réel et d'en calculer l'impact client de manière automatique. 🚀 Vos Missions : Esprit Intrapreneur & "From Scratch" En tant que Product Owner, vous n'êtes pas un simple gestionnaire de backlog, mais le véritable chef d'orchestre d'un produit naissant. 1. Discovery & Design (Cadrage du besoin) Immersion Terrain : Aller à la rencontre des métiers et des techniciens pour comprendre les réalités de l'infrastructure fibre. Collecte de Données : Identifier et consolider les sources de données (SIG, plans, chantiers) pour alimenter la plateforme. Définition du MVP : Prioriser les fonctionnalités pour sortir rapidement une première version utilisable, en évitant l'effet tunnel. 2. Delivery & Agilité (Pilotage) Gestion du Backlog : Rédaction des User Stories avec une approche technico-fonctionnelle. Itérations Courtes : Rythmer les sprints (2 à 3 semaines) pour garantir une visibilité constante au management. Qualité & Tests : S'assurer que le système d'alertes automatiques est fiable et précis. 3. Product Culture (Le rôle de "Challenger") Challenger le Métier : Savoir dire "non" aux demandes superflues pour garder un produit simple et efficace. Challenger la Tech : Discuter avec les développeurs sur les flux de données et la logique algorithmique du calcul d'impact. Vision Long Terme : Préparer l'imbrication de cet outil dans le portail principal d'Axione à horizon 12 mois. 🏢 Modalités & Environnement Localisation : Poste basé sur site ( 3 jours par semaine obligatoires ). Langue : Environnement franco-français (Anglais non requis). Process de recrutement : Court et efficace (1 seul entretien de 30 minutes). Durée : Mission de longue durée.
Mission freelance
Expert Data Microsoft : Power BI et Power Platform
Comet
Publiée le
microsoft
Microsoft Power BI
Power Platform
8 mois
420-630 €
Île-de-France, France
Bonjour à tous, notamment aux experts Data Microsoft ⚙️ évoluant sur Power BI et Power Platform 🔎 Je cherche un Consultant Data & Power Platform expérimenté pour rejoindre un Centre de Compétence IT Finance & Opérations, dans le cadre de projets stratégiques de pilotage de la performance produit. L’objectif est de construire et faire évoluer une chaîne de données complète et automatisée, reposant sur l’écosystème Microsoft Power Platform, afin de fiabiliser, transformer et exposer la donnée à des fins de reporting et de pilotage opérationnel. Le contexte est riche et hétérogène avec des flux de données multi-sources (Dataflows Power BI, Datasets, Excel, XML via VBA, APIs, Dataverse et Power Automate), dans une logique d’industrialisation et de fiabilisation de bout en bout. 💻 Ce que tu vas faire : - Cartographier les flux de données existants et proposer une architecture cible - Concevoir et optimiser des dashboards Power BI (modélisation, DAX, Power Query) - Développer et maintenir des rapports de pilotage de la performance produit - Automatiser les flux de données via Power Automate et connecteurs Power Platform - Intégrer et orchestrer des sources hétérogènes (Excel, XML, APIs REST, Dataverse) - Mettre en place des contrôles et data quality checks automatisés sur l’ensemble de la chaîne - Construire et suivre les KPI liés au déploiement et au pilotage des solutions - Assurer le support N2 sur les incidents Power Platform - Accompagner les équipes métiers (formation, documentation, support) - Garantir la documentation et la passation des solutions développées 🎯 Stack & environnement : Power BI / Power Query / DAX / Power Automate / Dataverse / APIs REST / JSON / XML / Excel VBA / Dataflows / Datasets / Power Platform Une belle fin de journée !
Mission freelance
Data Scientist – GenAI & RAG - Paris
Net technologie
Publiée le
AWS Cloud
Data science
GenAI
3 mois
Paris, France
Nous recherchons un Data Scientist pour renforcer un centre d’expertise IA dédié à des cas d’usage liés à la vente d’énergie , avec un fort focus sur l’ IA générative . 🎯 Objectif : concevoir, déployer et industrialiser des solutions data & IA à forte valeur métier. 🚀 Missions Cadrage des projets et proposition de solutions data-driven Traitement et exploitation de données structurées & non structurées Conception de modèles ML / Deep Learning / GenAI Développement de solutions basées sur LLM & architectures RAG Mise en place de pipelines (parsing, extraction, normalisation de données) Déploiement sur AWS (SageMaker, Bedrock, S3…) Évaluation des modèles (NLP, RAG, robustesse, hallucinations) Industrialisation (MLOps, monitoring, optimisation des coûts) Communication des résultats & accompagnement métier Mentoring de profils plus juniors
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5768 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois