L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 907 résultats.
Mission freelance
Ingénieur Systèmes & Réseaux
ANDEMA
Publiée le
Administration systèmes et réseaux
3 mois
500-550 €
Paris, France
Contexte Dans le cadre d’une mission chez l’un de nos clients, nous recherchons un Ingénieur Systèmes & Réseaux pour intégrer l’équipe Infrastructures & Support au sein de la DSI. Vous jouerez un rôle central dans la disponibilité, la sécurisation et l’évolution du SI , dans un environnement à taille humaine en cours de modernisation (optimisation, migrations, montées de version, nouvelles solutions). Vos missions Projets & Évolutions (BUILD) Administration avancée Active Directory (GPO, délégations, durcissement, Azure AD Connect) Gestion des environnements Microsoft 365 (Exchange, Teams, Intune, Autopilot) Administration VMware v7 Projets d’infrastructure : migrations serveurs, refonte SI, déploiements Intune Réalisation de POC et rédaction de documentation technique Administration réseaux : Firewall, VPN, VLAN, routage, proxy, switching (Cisco) Exploitation & Support (RUN) Maintien en condition opérationnelle des infrastructures systèmes et réseaux Administration Windows Server (2008–2022) & Windows 10/11 Gestion des sauvegardes Veeam Supervision, sécurité, gestion des solutions EDR Support utilisateurs N1 à N3 Optimisation des performances et gestion des incidents
Offre d'emploi
Développeur mobile React Native / Data Engineer H/F
SMARTPOINT
Publiée le
Apache Spark
Azure
Databricks
12 mois
55k-60k €
400-450 €
Île-de-France, France
Nous recherchons un profil hybride, combinant une expertise en développement mobile React Native et une compétence solide en Data Engineering sur Databricks/Azure. Votre mission principale portera sur la maintenance évolutive et corrective d’une application mobile développée en React Native. Vous interviendrez sur les sujets suivants : Développement mobile Assurer la maintenance évolutive et corrective d’une application mobile en React Native Garantir une expérience utilisateur fluide, performante et conforme aux bonnes pratiques (optimisation, modularité, testabilité) Implémenter de nouvelles fonctionnalités ainsi que les tests associés, dans une démarche clean code (sécurité, maintenabilité) Data Engineering Concevoir, développer et implémenter des solutions Big Data Analytics Construire et industrialiser les pipelines de données (collecte, transformation, traitement) dans le Data Lake Développer des notebooks avancés sous Databricks (langage SQL, Framework SPARK) Rédiger la documentation technique (DAT, release notes, etc.) Réaliser des tests unitaires et assurer la qualité des livrables Contribuer à la maintenance évolutive et corrective des traitements Livrer dans un environnement DevOps (CI/CD) et maîtriser les outils associés
Mission freelance
SAP MASTER DATA
KUBE Partners S.L. / Pixie Services
Publiée le
SAP
6 mois
Paris, France
Je cherche activement un consultant SAP Master Data,côté production, dans le cadre de la construction d'un core modele. Pour la phase de cadrage, design et conception : démarrage ASAP Tâches Base article et non article Fiche info achats Fiche info fournisseurs Nomenclature production Gamme de production Costing Migration avec interfaces PLM vers SAP basées sur des Idocs et LSMW Lien avec metier Leadership Compétences requises : Master Data SAP (min 5 ans exp) Expérience conception générale indispensable, paramétrage, custo Orienté best practice Langues : français et anglais mandatory
Mission freelance
Développeur Fullstack
EMGS GROUP
Publiée le
Docker
Elasticsearch
Java
6 mois
400-450 €
Paris, France
Nous sommes à la recherche d'un développeur Fullstack qui va intervenir principalement sur la conception technique et les développements autour d’un moteur de recherche stratégique. Missions Accompagner les équipes de réalisation lors des phases de développement Développer sur le périmètre applicatif de l’équipe Participer à la définition de l’architecture applicative en collaboration avec les développeurs, architectes, équipes sécurité et infrastructure Contribuer à la conception technique des projets : analyse des besoins et rédaction des exigences techniques Garantir le respect des bonnes pratiques de développement (revues de code, analyse qualité via SonarQube, etc.) Travailler en étroite collaboration avec l’ensemble des parties prenantes
Mission freelance
ALSL - Data Engineer (GCP) – Plateforme Data
Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
PySpark
3 mois
400-540 €
Paris, France
On cherche un(e) Data Engineer pour renforcer une équipe qui fait tourner la plateforme data au quotidien. Le sujet est très concret : ramener des données qui viennent de partout , les centraliser proprement , les rendre fiables , et garder une plateforme qui tient la charge (et qui ne casse pas en prod au premier pic). Vous travaillerez avec un Product Owner, un Data Steward et d’autres data engineers. On est sur une logique : ingestion, standardisation, stockage, et tout ce qui va avec côté run (monitoring, reprise, sécurité, doc). Vos missions : Collecter et centraliser des sources hétérogènes (API, fichiers, bases, événements). Construire des pipelines robustes : gestion des erreurs, reprises, backfills, alerting, qualité. Développer les traitements en Python / SQL / Spark (volumes en hausse, donc on fait attention à la perf et aux coûts). Orchestrer les flux avec Airflow . Structurer le stockage sur Cloud Storage avec une approche Delta Lake (évolution de schémas, merge/upsert, partitionnement, rétention). Industrialiser l’ensemble : Terraform / Terragrunt , GitLab CI/CD , environnements propres (dev/staging/prod). Contribuer à la gouvernance et à la conformité : catalogage et métadonnées via Dataplex + documentation utile (pas un wiki fantôme). Environnement technique : Python, SQL, Spark Airflow (orchestration) GCP : BigQuery, Dataproc, Pub/Sub, Cloud Storage Delta Lake Terraform + Terragrunt GitLab + GitLab CI/CD Méthodes : Agile (Scrum/Kanban)
Offre d'emploi
Lead Cloud Engineer Data & AI
Groupe Aptenia
Publiée le
AWS Cloud
DevSecOps
MLOps
6 mois
Occitanie, France
Lead Cloud Engineer Data & IA pour un programme R&D d’envergure. Conception, automatisation et exploitation de plateformes cloud AWS enterprise, sécurisées et scalables pour soutenir des cas d’usage Data, ML, MLOps et IA. Déploiement de landing zones, pipelines Data/MLOps et Infrastructure-as-Code. Intégration de la sécurité by-design, de la conformité GxP/GDPR et d’une posture audit-ready. Leadership technique, animation de communautés d’ingénierie et collaboration étroite avec équipes data, produit, sécurité et compliance.
Offre d'emploi
Acheteur Market Data
OBJECTWARE
Publiée le
Market data
6 mois
Paris, France
Dans le cadre de projets stratégiques chez nos clients grands comptes (banque, asset management, services financiers), nous recherchons un(e) Acheteur(se) Market Data expérimenté(e) pour intervenir sur des enjeux à forte valeur ajoutée. 🎯 Vos missions Au sein des équipes achats / market data, vous interviendrez notamment sur : La gestion des fournisseurs de données de marché (éditeurs, vendors) Le pilotage des appels d’offres (France et/ou international) La négociation contractuelle et tarifaire Le suivi des renouvellements de contrats La maîtrise des dépenses Market Data La coordination avec les équipes métiers, juridiques et IT La contribution aux projets d’optimisation et de conformité (RGPD, gouvernance data)
Mission freelance
Ingenieur Data RH
Comet
Publiée le
Azure Data Factory
BI
Databricks
12 mois
400-620 €
Île-de-France, France
Compétences techniques : Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Offre d'emploi
Full-Stack Engineer - Data Plateform - Aix-en-Provence (H/F)
EASY PARTNER
Publiée le
Google Cloud Platform (GCP)
Mongodb
Node.js
50k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Contexte du poste Dans le cadre du renforcement d’une équipe Data & Engineering, notre client final recrute un Développeur Full-Stack confirmé en CDI. Le poste s’inscrit dans l’évolution d’une application interne critique de gestion d’actifs. Cette plateforme constitue la source unique de vérité pour la gestion des actifs physiques, supportant directement les processus opérationnels, commerciaux et financiers du groupe. L’environnement est international, multiculturel et fortement orienté data-driven decision making . Missions principales Concevoir, développer et maintenir les fonctionnalités full-stack de l’application métier Optimiser la performance et la scalabilité du back-end (API, cache, base de données) Garantir la qualité, la fiabilité et l’intégrité des données Implémenter des fonctionnalités métier stratégiques (prévisions, transferts, modifications d’actifs, etc.) Développer et maintenir les API permettant l’interconnexion avec les systèmes tiers et plateformes cloud Traduire les besoins métier en spécifications techniques exploitables Améliorer en continu l’expérience utilisateur des outils internes Missions secondaires Participer au maintien en conditions opérationnelles de la plateforme (RUN) Identifier, analyser et corriger les anomalies complexes Gérer et réduire la dette technique Maintenir la stack technologique à jour Participer activement aux code reviews et aux standards qualité Contribuer à la documentation technique Collaborer étroitement avec les équipes métier, data et produit Participer aux cérémonies Agile Stack technique Front / Full-Stack Nuxt.js Vue.js TypeScript JavaScript ES6+ HTML5 / CSS3 / Sass / Less Back / Data Node.js (via Nuxt API) MongoDB Atlas (NoSQL) Redis (cache) Cloud / DevOps Cloud PaaS / IaaS (Clever Cloud, GCP ou équivalent) Git Docker (apprécié)
Offre d'emploi
DATA ANALYSTE DATASCIENCE SENIOR
KEONI CONSULTING
Publiée le
Data analysis
Python
SQL
18 mois
40k-45k €
400-550 €
Gradignan, Nouvelle-Aquitaine
CONTEXTE Nous recherchons pour notre client un profil analyste DATA afin d'intégrer l'équipe Analyse de la Donnée. Le profil aura pour mission de répondre à des cas d'usage métiers, par l'utilisation de la DATA de la phase exploratoire à l'exposition via de la DATAVIZ . Fort d'une expérience DATA, le prestataire devra également montrer une appétance particulière dans le domaine fonctionnel MISSIONS - Mise en oeuvre de cas d'usage métiers par croisement de la donnée ( ciblage , analyse de donnée ou datascience ) - Développement et maintenance de produits DATA réutilisables - Publication des résultats d'analyse avec de la DATAVIZ - Respect des normes et bonnes pratiques au sein de l'équipe - Accompagnement et acculturation des équipes métiers ou autres" Définition des prestations attendues : Prestation d'analyse DATA et DATASCIENCE Préciser la technologie ou les certifications attendues : Python, Pyspark,SQL,Dataviz, Datascience " Livrables attendus "Programme DATA sous plateforme DATA Dataviz Présentation PPT de resultats d'etude Environnement technique - technologique "Plateforme : BIG DATA Hadoop (CLOUDERA) Langages : Python, PySPARK, SQL Restitution : PowerBI (dataset, dataflow, rapports) Compétences techniques attendues Connaissances en environnement BIG DATA ( python , Pyspark) Requêtage SQL Exposition des données par DATAVIZ Experience en analyse DATA et projet de DATAscience
Offre d'emploi
Architecte Data (Snowflake - IA Gen) H/F
STORM GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD
3 ans
55k-65k €
550-680 €
Lille, Hauts-de-France
Principales missions : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IA GEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Offre d'emploi
Expert Kubernetes H/F
Proxiad
Publiée le
CI/CD
Kubernetes
Réseaux
3 ans
Lille, Hauts-de-France
Contexte Nous recherchons un expert Kubernetes pour accompagner une équipe OPS dans la structuration et l’industrialisation d’une plateforme conteneurisée stratégique. L’objectif est clair : atteindre un niveau de maturité avancé en matière d’architecture, de sécurité et d’exploitation. Responsabilités Audit complet de l’architecture Kubernetes (distribution, CNI, stockage, sécurité) Challenge des choix techniques au regard des standards actuels Définition et optimisation des standards d’exploitation : RBAC & policies réseau gestion des ressources monitoring & observabilité backup & journalisation Identification des risques et optimisations (scalabilité, résilience, automatisation) Accompagnement opérationnel d’un OPS dédié Participation à un POC d’industrialisation (GitOps, CI/CD, autoscaling Stack cible Kubernetes, GitOps, CI/CD, Observabilité, Sécurité réseau, Architecture DataCentric.
Mission freelance
AWS Platform Engineer – Environnement Data & Analytics
Comet
Publiée le
AWS Cloud
1 an
400-550 €
Île-de-France, France
Dans le cadre d’un programme de transformation Data & Analytics, vous rejoignez une équipe en charge de la construction et de l’évolution d’une plateforme cloud AWS. L’environnement est en pleine transformation technologique avec des enjeux forts autour de la gouvernance, la sécurité et la performance. Rôles & responsabilités Au sein de l’équipe Data & Analytics Platform : Développement et mise à jour de l’infrastructure Terraform (Infrastructure as Code) Mise en œuvre des règles de sécurité et des bonnes pratiques cloud Gestion et optimisation des environnements AWS Administration du datalake (stockage, lifecycle policies, gouvernance data) Gestion des VPC, NACLs, IAM Conception et maintenance des pipelines CI/CD Déploiement de microservices conteneurisés (EKS / ECS) Monitoring & supervision Documentation technique et accompagnement des équipes Compétences requises (minimum 2 ans d’expérience AWS) Cloud & Data Exploitation d’un datalake AWS S3 (schemas, lifecycle policies) Gouvernance & sécurité des données Performance & optimisation des coûts DevOps / Infra Terraform CI/CD GitHub / GitHub Actions Infrastructure as Code Docker Monitoring Développement Python APIs REST (event-driven apprécié)
Mission freelance
TECHNICIEN SYSTEMES ET RESEAUX
Espritek
Publiée le
Microsoft Windows
Windows Server
3 mois
200 €
Paris, France
Technicien Systèmes & Réseaux Freelance – 3 jours / semaine Dans le cadre d’une mission récurrente chez nos clients, nous recherchons un Technicien Systèmes & Réseaux Freelance (H/F) pour une intervention 3 jours par semaine sur Paris 📅 Organisation de la mission Lundi & Mardi : 1 seul client Journées complètes sur site Mercredi : 2 demi-journées 2 clients différents 💰 Conditions 200 € HT / jour Mission récurrente Démarrage rapide 🖥️ Environnement technique Windows 11 Windows Server Active Directory / Entra ID Microsoft 365 (Exchange, Teams, OneDrive, SharePoint) Réseaux (DNS, DHCP, VLAN, VPN) Téléphonie 3CX / Teams Phone Firewall / Switch (actions courantes) 🎯 Missions principales Support utilisateurs N1 / N2 Installation et préparation de postes Gestion des comptes et licences M365 Diagnostic et résolution d’incidents Interventions techniques courantes Accompagnement utilisateurs 👤 Profil recherché Nous recherchons une personne : Fiable et sérieuse Autonome Organisée Capable de s’adapter à plusieurs environnements
Offre d'emploi
Data Officer H/F
OBJECTWARE
Publiée le
Gestion de projet
Nantes, Pays de la Loire
Nous recherchons un Data Officer H/F. Vous couvrez les rôles de Conduite de projet Data (AMOA) et de Data Stewart. Vous coordonnez et mutualisez les énergies sur les projets Data et dans le cadre de la gouvernance et de l’administration des données. Missions : - analyse fonctionnelle des sujets - échanges avec MOA / MOE - gouvernance de la donnée (analyse des données, catalogue des données, connaissance de la donnée et sécurisation d’accès (droits et usage)) - organisation projet notamment de la qualification
Offre d'emploi
Business analyst / Data scientist IA gen (RAG)
PARTENOR
Publiée le
Data science
RAG
Rédaction des spécifications fonctionnelles
1 an
Paris, France
Dans le cadre d'une création de poste chez l'un de nos clients grands comptes dans le secteur bancaire, nous recherchons un(e) business analyst confirmé avec une expérience en tant que data scientist sur des systèmes RAG. Vous travaillerez sur des sujets d'IA et d'IA générative et notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative RAG (Retrieval Augmented Generation). Vos missions principales : - Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists - Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées - Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration - Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme - Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets - Suivre la production afin de garantir la satisfaction du client
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6907 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois