L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 266 résultats.
Offre d'emploi
Développeur Fullstack React / Node.js – Applications Data
adbi
Publiée le
API REST
AWS Cloud
CSS
12 mois
38k-46k €
400-500 €
Paris, France
Nous recherchons un Développeur Fullstack React / Node.js pour intervenir sur la conception, la migration et le développement d’applications web orientées data. Vous interviendrez sur un ensemble d’applications déjà existantes, initialement développées avec un framework de prototypage, que vous ferez évoluer vers une stack web moderne afin d’offrir une meilleure expérience utilisateur, plus de fonctionnalités et une meilleure maintenabilité. Vos principales missions : Analyser l’application existante (fonctionnel et technique) et proposer une stratégie de migration vers React (front-end) et Node.js (back-end). Concevoir et développer l’interface utilisateur en React (components, hooks, intégration d’API, gestion d’état). Développer et maintenir des API REST en Node.js pour exposer les données nécessaires aux applications. Participer à la mise en place et au déploiement sur un environnement cloud (type AWS), en appliquant les bonnes pratiques de performance, sécurité et supervision. Contribuer aux phases de tests, de recette et de mise en production. Rédiger la documentation technique et partager les bonnes pratiques au sein de l’équipe. Vous travaillerez au sein d’une équipe pluridisciplinaire (product, data, tech) et serez responsable de la livraison de bout en bout sur votre périmètre. Anglais courant
Mission freelance
Ingénieur Système RF - Spatial (H/F)
CELAD
Publiée le
1 an
350-400 €
Toulouse, Occitanie
Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! 🚀 Nous poursuivons notre développement et recherchons actuellement un Ingénieur Système RF - Spatial (H/F) pour intervenir chez un de nos clients, dans le secteur spatial. 💻💼 Voici un aperçu détaillé de vos missions : 🎯 Participer à la définition et au suivi des exigences système et RF Assurer la traçabilité entre les besoins clients, les exigences RF et les sous-systèmes Contribuer à la modélisation fonctionnelle du système (SysML, Capella) Participer à la définition des architectures RF et des chaînes de communication Contribuer à l’analyse des performances RF : bilan de liaison, puissance, fréquences, interférences Participer à la gestion des interfaces entre les équipements RF et les autres sous-systèmes Contribuer à la stratégie de Vérification & Validation (V&V) des fonctions RF Participer aux campagnes de tests et à l’analyse des résultats Identifier les incohérences techniques et proposer des solutions adaptées Participer aux revues techniques projet (SRR, PDR, CDR) Collaborer avec les équipes Engineering, Avionique, Communication, Qualité et Programmes Participer au pilotage de certaines activités techniques selon votre niveau d’expérience
Offre d'emploi
📩 Data Engineer / DevOps – Data Platform
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
AWS Cloud
1 an
Paris, France
Contexte de la mission Dans le cadre du développement d’une Data Marketplace interne , notre client construit une plateforme centralisant l’ensemble du parcours data (discovery, qualité, gouvernance, transformation, monitoring, BI). Déjà déployée auprès de premiers utilisateurs, la plateforme entre dans une phase de scalabilité et d’industrialisation avec un objectif de déploiement à grande échelle (plusieurs milliers d’utilisateurs à l’international). Vous intégrerez une équipe produit data avec des enjeux forts autour de la performance, de la qualité des données et de l’expérience utilisateur. Objectifs & livrables Développement et optimisation de pipelines data complexes Mise en place de process de data quality Contribution à une architecture scalable et modulaire Industrialisation des flux (CI/CD, automatisation) Documentation technique et participation aux choix d’architecture Missions principales Data Engineering Développer et maintenir des pipelines (batch & streaming) Gérer l’ingestion multi-sources (API, bases, streaming) Optimiser les performances (latence, volumétrie, retry) Implémenter des contrôles de qualité et de traçabilité Backend & Architecture Concevoir une architecture data modulaire et scalable Développer des composants réutilisables Garantir la maintenabilité et la qualité du code DevOps & Industrialisation Mise en place de pipelines CI/CD Automatisation des déploiements Gestion des environnements cloud Collaboration Travail étroit avec PO, data engineers et équipes métiers Participation aux rituels agiles et code reviews Stack technique Data Python, Scala Spark Kafka / Kinesis / EventHub Airflow, DBT Cloud AWS (Lambda, Glue, Step Functions, Redshift, DynamoDB) Azure (Functions, CosmosDB) DevOps Docker, Kubernetes CI/CD (GitLab CI, Jenkins, GitHub Actions) Terraform, Ansible Observabilité Prometheus, Grafana, ELK, Datadog
Mission freelance
Data Analyst
Root-MENU
Publiée le
Analyse
6 mois
520-720 €
Paris, France
Nous recherchons un(e) Data Analyst pour rejoindre notre équipe et contribuer à la valorisation des données de l’entreprise. Vous serez en charge de collecter, analyser et interpréter des données afin d’aider à la prise de décision stratégique. Vos missions: ➜ Extraire et traiter des données provenant de différentes sources ➜ Concevoir des tableaux de bord et rapports (KPI, indicateurs de performance) ➜ Identifier des tendances et formuler des recommandations ➜ Collaborer avec les équipes métiers pour comprendre leurs besoins
Offre d'emploi
Data Engineer Python & Power BI (H/F)
STORM GROUP
Publiée le
Microsoft Power BI
Python
3 ans
40k-55k €
400-500 €
Île-de-France, France
Au sein d’une équipe spécialisée en risque de contrepartie, vous contribuez au développement et à l’amélioration d’outils de suivi, d’analyse et de certification des métriques de risque. Vos missions : Développement et optimisation d’outils de reporting et d’analyse Python, Power BI Structuration et modélisation des données pour des usages BI Suivi et contrôle des métriques de risque et des dépassements Participation aux processus de certification et de fiabilisation des données Collaboration avec des équipes pluridisciplinaires (risque, IT, métiers)
Mission freelance
Product Owner- Reseaux -Infra- (F/H)- Nantes
Argain Consulting Innovation
Publiée le
Infrastructure
ITIL
JIRA
6 mois
450-500 €
Nantes, Pays de la Loire
🚀 Contexte de la mission Dans le cadre du renforcement d’une équipe IT dédiée aux environnements réseaux et infrastructures, nous recherchons un(e) Product Owner / Service Owner pour intervenir sur un périmètre stratégique mêlant activités build et run. Vous intégrerez une équipe transverse en charge de services critiques liés aux infrastructures techniques. 🎯 Vos missions🔧 Pilotage du Build Gérer et prioriser le backlog (évolutions et incidents) en collaboration avec les équipes opérationnelles Animer les rituels Agile (affinage des tickets, daily meetings) Recueillir les besoins métiers et techniques, et animer des ateliers de cadrage Assurer la cohérence de la roadmap avec les autres équipes IT Proposer et suivre des indicateurs de performance des services Être force de proposition dans une démarche d’amélioration continue Participer à la synchronisation inter-équipes pour harmoniser les pratiques Animer ponctuellement les échanges avec les utilisateurs et partenaires internes Contribuer au suivi et à l’optimisation des coûts ⚙️ Garant du Run Piloter les incidents majeurs et coordonner les actions de résolution Assurer un reporting en temps réel auprès des parties prenantes Animer les revues post-incidents et intégrer les actions correctives au backlog Suivre et analyser les indicateurs de performance liés aux incidents Participer à l’estimation et au suivi des coûts
Offre d'emploi
Data Engineer GCP
CAT-AMANIA
Publiée le
Apache Airflow
BigQuery
Data Engineering
1 an
40k-50k €
350-400 €
Lille, Hauts-de-France
Vous serez intégré dans une équipe pluridisciplinaire (Data Engineer, DevSecFinOps) Vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 6 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité
Mission freelance
Ingénieur réseau H/F
Grafton
Publiée le
Administration réseaux
Réseaux
6 mois
550-700 €
Seclin, Hauts-de-France
Grafton recrute un Ingénieur Réseau (F/H) Localisation : Seclin – Métropole lilloise Début de mission : 01/05/2026 Fin de mission : 30/09/2026 – reconduction attendue Télétravail : 60 % de présentiel minimum (à ajuster avec l’équipe) Qui sommes-nous ? Grafton accompagne un acteur majeur de la transformation numérique au sein des secteurs publics, du transport et de la santé. Présent à l’international, ce groupe conçoit et maintient des solutions technologiques critiques utilisées par des millions de citoyens. Nous recherchons aujourd’hui un Ingénieur Réseau pour renforcer une équipe dédiée aux systèmes de titres sécurisés. L’opportunité Vous intégrerez une équipe expérimentée travaillant sur les infrastructures réseau liées aux systèmes d’information de titres sécurisés (CNI, passeports…). Vous collaborerez avec des experts techniques, métier et sécurité, dans un environnement exigeant et en constante évolution. En plus des évolutions fonctionnelles, l’équipe gère également l’obsolescence des technologies et la modernisation des plateformes. Vos responsabilités Architecture & amélioration continue Proposer, tester et mettre en œuvre des architectures réseau performantes et sécurisées. Travailler en étroite collaboration avec les équipes de développement. Contribuer à l’amélioration de la qualité opérationnelle, de la disponibilité et de la scalabilité des infrastructures. Administration réseau Gestion des demandes : DNS, IP, ouvertures firewall. Administration des infrastructures L2/L3 (switching, routing). Gestion des pare-feux réseaux et applicatifs. Supervision et gestion des sondes IPS. Mise en œuvre des protocoles de routage pour l’interconnexion datacenters / clients. Administration des architectures Internet et protection DDoS. Exploitation & maintenance Maintenir les conditions opérationnelles des plateformes. Assurer la maintenance corrective et préventive. Participer au déploiement de nouvelles infrastructures. Contribuer à l’uniformisation des processus entre équipes françaises et européennes. Industrialisation & modernisation Participer au développement d’outils d’automatisation et d’industrialisation. Faire évoluer les plateformes vers les dernières technologies (capacity planning, gestion de l’obsolescence…). Votre environnement technique Réseau Architectures LAN & WAN (Cisco, HP…) L2 : Ethernet, VLAN, trunking, xSTP Protocoles de routage : OSPF, BGP, MPLS, ISIS Services : DNS, DHCP, IPAM, NTP Web services & proxy Load balancing / GSLB (F5, Netscaler) Virtualisation réseau : VMware NSX, VXLAN Systèmes Linux (Red Hat, CentOS, Debian) Windows Server
Offre d'emploi
Développeur Python - Data & Automation
VISIAN
Publiée le
Python
1 an
Paris, France
Contexte Développeur en charge de la gestion des scripts internes, de l’intégration de LLM et des tâches d’automatisation sur les flux de données et les processus, ainsi que des interactions API avec des sources externes. Mise en place de contrôles et de rapports sur la qualité des données. Contribution au développement des outils internes de l’équipe, tels que les processus de communication (mailing de masse), site web, planification d’équipe, etc. Objectif : Un développeur senior avec une solide compréhension des projets pilotés par les données, de l’automatisation, des référentiels IT et des exigences de gestion de services, pour travailler sur le développement interne de pipelines d’intégration et d’interfaces dans l’écosystème d’une grande banque d’investissement. Périmètre : Global, rôle exigeant une collaboration avec les clients internes de la banque d’investissement à l’échelle mondiale, nécessitant un anglais professionnel.
Mission freelance
Data Platform Engineer - Metadata
CAT-AMANIA
Publiée le
Databricks
FastAPI
Github
1 an
100-450 €
Lille, Hauts-de-France
Organisée autour des outils de stockage et de catalogage, l'équipe Datalake est chargée de mettre à disposition le stockage (S3) pour l'ensemble de la data platform et de garantir robustesse et scalabilité. L'équipe Datalake assure la gouvernance technique du patrimoine de donnée et la gestion des métadonnées au travers des data contract. Nous hébergeons et maintenons le repository central de ces derniers. Nous permettons grâce à cela de construire une observabilité de plateforme au travers de l’usage, du lineage etc. Nous avons le besoin de sensibiliser les utilisateurs aux bonnes pratiques que l'équipe met en place sur une modern data stack. Ceci afin d'accompagner au mieux le développement des use cases métiers sur la plateforme. Une appétence data et avoir déjà manipulé des outils tels que databricks est un réel plus. Ta mission sera de Garantir la robustesse du data contract registry (Aurora + Python fastAPI) Monitorer et prendre des actions proactives de management Assurer le support et l'accompagnement tournant sur les outils de l'équipe (S3, Glue, Unity Catalog, data contract registry) Restituer dans le datalake les metadonnées de nos produits Accompagner et former Définir et promouvoir les bonnes pratiques proposées au sein de l'équipe Participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Gouvernance automatisée (Data contract registry, access management, metadata management) Etroite collaboration avec les staff engineer de la plateforme pour le développement de nouvelle features (ADR)
Offre d'emploi
Data Engineer Snowflake DBT ELT Senior
Atlanse
Publiée le
DBT
ETL (Extract-transform-load)
Microsoft Power BI
1 an
55k-65k €
400-550 €
Guyancourt, Île-de-France
En tant que Data Engineer Senior, vous intervenez au sein d’un environnement data en forte structuration pour concevoir, industrialiser et faire évoluer les flux de données dans un écosystème Snowflake / dbt / ELT. Votre rôle Conception et industrialisation des flux data dans Snowflake · Concevoir, développer et maintenir des pipelines ELT dans un environnement Snowflake / dbt · Intégrer et transformer des données issues de différents environnements · Concevoir des modèles de données · Contribuer à l’industrialisation des traitements et à la fiabilisation de l’alimentation du data warehouse Snowflake Qualité, traçabilité et performance data · Fiabiliser les chaînes de transformation dbt · Optimiser les traitements dans Snowflake · Surveiller le bon fonctionnement des flux en production, analyser les anomalies de chargement ou de qualité de données, mettre en œuvre les actions correctives Evolution du socle data · Accompagner les projets de transformation ou de migration de solutions data existantes vers un socle plus moderne, notamment autour de Snowflake · Travailler en lien étroit avec les équipes data, IT et métiers · Contribuer à l’amélioration continue des standards de développement, de documentation, de gouvernance et de sécurité
Mission freelance
Expert Data Microsoft : Power BI et Power Platform
Comet
Publiée le
microsoft
Microsoft Power BI
Power Platform
8 mois
420-630 €
Île-de-France, France
Bonjour à tous, notamment aux experts Data Microsoft ⚙️ évoluant sur Power BI et Power Platform 🔎 Je cherche un Consultant Data & Power Platform expérimenté pour rejoindre un Centre de Compétence IT Finance & Opérations, dans le cadre de projets stratégiques de pilotage de la performance produit. L’objectif est de construire et faire évoluer une chaîne de données complète et automatisée, reposant sur l’écosystème Microsoft Power Platform, afin de fiabiliser, transformer et exposer la donnée à des fins de reporting et de pilotage opérationnel. Le contexte est riche et hétérogène avec des flux de données multi-sources (Dataflows Power BI, Datasets, Excel, XML via VBA, APIs, Dataverse et Power Automate), dans une logique d’industrialisation et de fiabilisation de bout en bout. 💻 Ce que tu vas faire : - Cartographier les flux de données existants et proposer une architecture cible - Concevoir et optimiser des dashboards Power BI (modélisation, DAX, Power Query) - Développer et maintenir des rapports de pilotage de la performance produit - Automatiser les flux de données via Power Automate et connecteurs Power Platform - Intégrer et orchestrer des sources hétérogènes (Excel, XML, APIs REST, Dataverse) - Mettre en place des contrôles et data quality checks automatisés sur l’ensemble de la chaîne - Construire et suivre les KPI liés au déploiement et au pilotage des solutions - Assurer le support N2 sur les incidents Power Platform - Accompagner les équipes métiers (formation, documentation, support) - Garantir la documentation et la passation des solutions développées 🎯 Stack & environnement : Power BI / Power Query / DAX / Power Automate / Dataverse / APIs REST / JSON / XML / Excel VBA / Dataflows / Datasets / Power Platform Une belle fin de journée !
Offre d'emploi
Ingénieur Système - Transport H/F
VIVERIS
Publiée le
40k-55k €
Villeurbanne, Auvergne-Rhône-Alpes
Contexte de la mission : Nous recherchons, pour le compte d'un client du secteur du transport, un Responsable des applications Télématiques. En lien avec les équipes internes et les fournisseurs, vous garantissez la qualité, la conformité et le bon déploiement des solutions télématiques. Responsabilités : En tant que responsable des applications Télématiques (Application Owner), vous aurez à charge : planifier les évolutions logicielles à implémenter en collaboration avec le responsable du calculateur Télématique être l'interlocuteur principal de l'éditeur de l'application pour la spécification, le développement, la validation des évolutions et la correction des anomalies être garant de la qualité de l'application livrée, à ce titre , réaliser et élaborer les demandes d'essais requises élaborer et valider les configurations appliquées à chaque variante de véhicule assister les équipes internes lors de la mise au point et la mise en production de l'application élaborer les livrables requis dans le processus d'études assurer une communication synthétique et adaptée auprès des différents acteurs et donneurs d'ordre
Mission freelance
Data Analyst Professional
Codezys
Publiée le
Data visualisation
Python
SQL
12 mois
310-400 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Le projet est réalisé pour le compte d’un client resté anonyme, permettant de préserver la confidentialité de ses activités et de ses données stratégiques. La mission s’inscrit dans un environnement où l’analyse précise des données joue un rôle clé pour orienter la prise de décision et optimiser les processus internes. Le candidat doit disposer d’une expérience professionnelle comprise entre 2 et 5 ans, ce qui garantit une maîtrise suffisante des techniques d’analyse tout en étant capable de s’adapter rapidement aux spécificités du projet. Objectifs et livrables Collecte de données : Recueillir des données provenant de diverses sources, telles que bases de données internes, fichiers Excel, API tierces ou autres systèmes d’information. Assurer la qualité et l’intégrité des données dès la phase de collecte pour faciliter leur utilisation ultérieure. Visualisation et analyse : Développer des tableaux de bord interactifs et des visualisations dynamiques à l’aide d’outils comme Power BI, Tableau ou QlikView. Effectuer des analyses exploratoires pour détecter des tendances, anomalies ou opportunités spécifiques, conformément aux enjeux fixés par l’entreprise. Extraction et structuration des données : Mettre en œuvre des techniques avancées de traitement de données pour extraire des informations pertinentes. Organiser ces données sous des formats structurés, tels que des bases de données relationnelles ou des modèles multidimensionnels, en utilisant des langages comme SQL ou Python. Construction de modèles et rapports : Développer des modèles analytiques robustes, notamment des modèles prédictifs ou descriptifs, adaptés aux besoins métiers. Produire des rapports standardisés et des outils autonomes destinés à une communauté d’utilisateurs élargie, facilitant la prise de décision collective. Ce projet exige une communication fluide avec les parties prenantes, une capacité à documenter clairement le processus de traitement des données, ainsi qu’une vigilance constante pour garantir la pertinence et la qualité des livrables, dans le respect des délais impartis.
Offre d'emploi
Administrateur système et réseau (H/F)
ADSearch
Publiée le
40k-50k €
Compans, Île-de-France
Administrateur Système et Réseau H/F – CDI – Seine-et-Marne – Système, Réseau, Administration La division IT de notre bureau Paris recherche pour son client, un grand groupe industiel, un administrateur système et réseau (H/F) en Seine-et-Marne. Sous la responsabilité du Responsable Infrastructure, vous aurez la charge de l’administration, de la supervision et du maintien en conditions opérationnelles des systèmes et réseaux. VOS MISSIONS Vous serez en charge des missions suivantes : Assurer la fiabilité, la performance et la sécurité des infrastructures systèmes et réseaux Garantir la disponibilité optimale des services et le respect des normes de sécurité et de conformité (ISO 27001, NIS2). Réaliser les opérations quotidiennes de supervision, d’administration et de maintenance préventive afin de prévenir les incidents. Déployer, configurer et maintenir les mises à jour des systèmes, serveurs, pare-feu, VPN et équipements réseaux, tout en assurant la continuité de service.
Mission freelance
Data Scientist – GenAI & RAG - Paris
Net technologie
Publiée le
AWS Cloud
Data science
GenAI
3 mois
Paris, France
Nous recherchons un Data Scientist pour renforcer un centre d’expertise IA dédié à des cas d’usage liés à la vente d’énergie , avec un fort focus sur l’ IA générative . 🎯 Objectif : concevoir, déployer et industrialiser des solutions data & IA à forte valeur métier. 🚀 Missions Cadrage des projets et proposition de solutions data-driven Traitement et exploitation de données structurées & non structurées Conception de modèles ML / Deep Learning / GenAI Développement de solutions basées sur LLM & architectures RAG Mise en place de pipelines (parsing, extraction, normalisation de données) Déploiement sur AWS (SageMaker, Bedrock, S3…) Évaluation des modèles (NLP, RAG, robustesse, hallucinations) Industrialisation (MLOps, monitoring, optimisation des coûts) Communication des résultats & accompagnement métier Mentoring de profils plus juniors
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5266 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois