Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 706 résultats.
Freelance

Mission freelance
Business Analyst R, Python, SQL client banque basé à Paris/s

WorldWide People
Publiée le
Business Analyst
Python

12 mois
Paris, France
Business Analyst R, Python, SQL client banque basé à Paris, un profil Analyse Business de niveau expert et niveau confirmé. Compétences requises : Prestation : Analyse Business Connaissance des outils analytiques R, Python est indispensable Bonne connaissance des aspects modélisation des bases de données décisionnelles, et du langage SQL Expertise probante dans la mise en place de système décisionnels relevant du domaine de la stabilité financière, données prudentielles Compétences complémentaires (techniques, etc.) SQL, Hive SAS VIYA, Visual Analytics R/Python AirFlow Démarrage ASAP Localisation Paris / Télétravail 2 à 3 jours par semaine Durée de la mission : 2 ans Projet : Assister le product owner et le proxy product owner dans les travaux de préparation de la réalisation ainsi que la conception dans le cadre de la maintenance et des évolutions en mode projet Préparer, co-animer les ateliers d’affinage et de priorisation des besoins métier avec les Utilisateurs métiers, et leur retranscription sous forme de spécifications en épopées/récits utilisateurs, dans la méthodologie Scrum Collecter et participer à la validation des différents documents projets attendus Contribuer aux différents ateliers avec l’ensemble des parties prenantes du projet tant fonctionnel que technique dans la phase de réalisation Contribuer à la conception fonctionnelle des cas d’usage métiers avec les référents Métiers pour la réalisation et leur formalisation sous forme de récits utilisateurs ; réalisation de la recette fonctionnelle à l’appui de cas de tests qui auront été préalablement formalisés ; formalisation de la communication aux utilisateurs métiers et appui à la formation des Utilisateurs Participer aux travaux de l’escouade en mode agile Participer à la remise et à la validation des différents livrables du projet Contribuer aux activités de support à la production Contribuer aux activités de conduite de changement des utilisateurs métiers Compétences requises : Prestation : Analyse Business Connaissance des outils analytiques R, Python est indispensable Bonne connaissance des aspects modélisation des bases de données décisionnelles, et du langage SQL Expertise probante dans la mise en place de système décisionnels relevant du domaine de la stabilité financière, données prudentielles Compétences complémentaires (techniques, etc.) SQL, Hive SAS VIYA, Visual Analytics R/Python AirFlow
CDI
CDD

Offre d'emploi
Data Analyst - Bordeaux

OCTOGONE
Publiée le
BI
Google Cloud Platform (GCP)
PL/SQL

9 mois
Bordeaux, Nouvelle-Aquitaine
Contexte Rattaché(e) à l'équipe Data au sein de la R&D d'un ERP Commerce d'un groupe de grande distribution, le/la Data Analyst aura pour mission de manipuler, mettre en qualité et exposer les données aux centrales d'achat du groupe. La mission s'inscrit dans un environnement technologique Cloud (GCP) utilisant des bases de données volumineuses. Description La mission inclut l'écriture et l'optimisation de requêtes SQL complexes pour l'extraction de données. Le consultant participera à la mise en qualité des données lors du déploiement de nouvelles Centrales et assurera une veille sur les outils BI et les principes d'IA générative. Livrables Requêtes SQL optimisées, jeux de données qualifiés pour les reprises de données, et tableaux de bord de visualisation (Looker, Power BI). Compétences Maîtrise avancée de SQL, connaissance de Google Cloud Platform (BigQuery), outils de Business Intelligence, programmation Python et familiarité avec l'IA/Machine Learning.
Freelance

Mission freelance
Administrateur Zabbix (niv 3) et DevOps H/F

AGH CONSULTING
Publiée le
Grafana
Java
Perl (langage)

1 an
600-700 €
Nantes, Pays de la Loire
Vos missions : -Accompagner l'ensemble des projets de transformation CA-GIP autour de l'Observabilité (BUILD) -Contribuer à la rationalisation des solutions et technologies de Supervision du monde Open, Réseau et Natif -Garantir l'opérabilité de la plateforme Zabbix et du Monitoring As Code -Être force de proposition de mise en oeuvre de nouveaux composants techniques industrialisés, sécurisés, packagés et automatisés (DevOps) -Veiller aux optimisations liées à l'automatisation des actes d'administration nécessaires dans les choix et modèles d'implémentation des composants. -Assurer le support d'expertise en relation avec l'éditeur et les équipes de support off-shore (RUN) -Assurer la veille technologique et anticiper les Roadmaps Produit avec le Product Owner -Veiller au contrôle qualité et à l'amélioration continue des plateformes Zabbix L'environnement technique : -Supervision Open Zabbix -Métrologie & Dashboarding : Grafana, InfluxDB -Hypervision Netcool Operation Insight (NOI) servant tous les environnements techniques -Contexte de fabrication et de production industrialisé, automatisé. -Contexte de scalabilité, performance et robustesse -Environnement sécurisé exigé dans le monde bancaire. -50 000 serveurs
Freelance

Mission freelance
Data Analyst confirmé Powerbi, SQL, Python Nantes/st

WorldWide People
Publiée le
Data analysis

12 mois
320-350 €
Nantes, Pays de la Loire
Data Analyst confirmé Powerbi, SQL, Python Nantes Maîtrise des outils de gestion de données (ex : SQL, Excel avancé, Python ou R…). • Connaissance des outils de visualisation (ex : Power BI, Tableau, …). • Compétences en statistiques et en modélisation de données. 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Powerbi, SQL, Python Prestation Data Analyst confirmé (Min 3 ans exp sur la fonction) Tâches : • apporte un appui analytique à la conduite d’exploration et à l’analyse complexe de données Métiers permettant de fournir des indicateurs concrets. • identifie les données les plus intéressantes et les rends exploitables (structuration, normalisation, documentation) • assure la qualité et la fiabilité de ces données. • dégage des logiques de génération d’indicateurs pour les Métiers. • dégage des tendances en utilisant ses compétences statistiques. • conçoit les tableaux de bord nécessaires à la restitution des différents indicateurs sous la forme de Data visualisation. Compétences Technique : • Maîtrise des outils de gestion de données (ex : SQL, Excel avancé, Python ou R…). • Connaissance des outils de visualisation (ex : Power BI, Tableau, …). • Compétences en statistiques et en modélisation de données.
Freelance

Mission freelance
Expert M365 Protection des données

Codezys
Publiée le
Azure
Infrastructure
Microsoft Purview

12 mois
380-450 €
Toulouse, Occitanie
Au sein d'une équipe pluridisciplinaire, votre mission sera d'apporter votre expertise technique sur le projet DSPM, d'assurer le maintien en condition de sécurité de la solution collaborative Microsoft 365 , de déployer et piloter les campagnes de revue des accès. Vous serez également en charge du fonctionnement des solutions de découverte et de gouvernance des accès aux données bureautiques, contribuant ainsi activement à la protection des données du Groupe. Vos principales activités comprendront : Contribuer au déploiement de la solution DSPM Varonis . Définir les règles de détection du DSPM, assurer l'analyse et le reporting des résultats. Assurer le maintien en condition opérationnelle ( MCO ) de la solution DSPM. Définir, paramétrer et améliorer les règles de sécurisation Microsoft 365 . Produire des analyses de sécurité relatives aux nouveaux services Microsoft 365 . Garantir la sécurité des projets intégrés au tenant Microsoft 365 . Déployer la solution de revue des partages Microsoft 365 ( IDECSI ) au sein du Groupe et piloter les campagnes de revue associées. Assurer la maintenance et l'amélioration d'un tableau de bord présentant les indicateurs clés d'activité. Garantir le maintien en condition opérationnelle des solutions de protection des données bureautiques. Suivre et traiter les incidents et proposer des remédiations ( N2/N3 ). Rédiger des guides et des standards de sécurité. Assurer une veille technologique proactive.
Freelance
CDI

Offre d'emploi
Expert sécurité M365 (H/F)

STORM GROUP
Publiée le
Azure
Microsoft Purview
Powershell

3 ans
55k-60k €
500 €
Toulouse, Occitanie
Le département Protection des Données, rattaché à la Direction Sécurité, recherche pour son service Sécurité Des Données un Expert en Protection des Données de formation ingénieur. Vous accompagnerez nos équipes dans la mission cruciale de protection des données sensibles. Au sein d'une équipe pluridisciplinaire, votre mission sera d'apporter votre expertise technique sur le projet DSPM, d'assurer le maintien en condition de sécurité de la solution collaborative M365, de déployer et piloter les campagnes de revue des accès. Vous serez également en charge du fonctionnement des solutions de découverte et de gouvernance des accès aux données bureautiques, contribuant ainsi activement à la protection des données. Vos principales activités comprendront : Contribuer au déploiement de la solution DSPM Varonis. Définir les règles de détection du DSPM, assurer l'analyse et le reporting des résultats. Assurer le maintien en condition opérationnelle (MCO) de la solution DSPM. Définir, paramétrer et améliorer les règles de sécurisation M365. Produire des analyses de sécurité relatives aux nouveaux services M365. Garantir la sécurité des projets intégrés au tenant M365. Déployer la solution de revue des partages M365 (IDECSI) au sein du Groupe et piloter les campagnes de revue associées. Assurer la maintenance et l'amélioration d'un tableau de bord présentant les indicateurs clés d'activité. Garantir le maintien en condition opérationnelle des solutions de protection des données bureautiques. Suivre et traiter les incidents et proposer des remédiations (N2/N3). Rédiger des guides et des standards de sécurité. Assurer une veille technologique proactive.
CDI

Offre d'emploi
CDI – Data Engineer Databricks (AWS) – 3 à 7 ans d’expérience

Hexateam
Publiée le
Amazon S3
Apache Airflow
AWS Glue

La Défense, Île-de-France
Contexte Dans le cadre de notre croissance, nous recrutons un Data Engineer pour intervenir sur des environnements Databricks sur AWS, avec des enjeux d’ingestion, de transformation et de fiabilité des données. Missions Développement et ingestion de données • Concevoir et développer des pipelines de données en Python et Spark sur Databricks • Mettre en place des flux entre sources externes (ex : Oracle) et un Data Lake (S3 / Delta Lake) • Optimiser les traitements et les performances Orchestration et qualité des données • Orchestrer les workflows avec AWS Airflow • Mettre en place des contrôles qualité et des mécanismes de validation • Développer des outils de monitoring et de gestion des anomalies Maintien en condition opérationnelle • Assurer la disponibilité et la performance des pipelines • Diagnostiquer et corriger les incidents • Participer à l’amélioration continue des traitements Contribution • Participer aux ateliers techniques et aux échanges avec les équipes • Documenter les pipelines, architectures et processus • Contribuer aux bonnes pratiques Data et Big Data
Freelance
CDI

Offre d'emploi
TECH LEAD DATA GCP

UCASE CONSULTING
Publiée le
Docker
Google Cloud Platform (GCP)
Python

6 mois
40k-45k €
400-550 €
Paris, France
Je recherche pour un de mes clients un Tech Lead Data : Dans ce cadre, la nouvelle squad data aura la charge de : • La migration et le déploiement en production de traitements de données sur GCP (workflows) • La copie d’historique de données depuis le data warehouse on-prem vers GCP BigQuery • La mise en place d’un orchestrateur pour les traitements de données sur GCP • La mise en place d’une solution de data lineage au niveau colonne de données. • L’automisation de processus de data engineering par l’IA ou une plateforme d’automatisation (e.g. n8n). La composante développement sera importante, jusqu’à 80% du temps et dépendra de la taille de la squad et de la charge de développement. Description de la prestation Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab •Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité
CDI
Freelance

Offre d'emploi
Expert.e Linux

Atlanse
Publiée le
Ansible
Bash
Linux

3 ans
55k-65k €
400-550 €
Île-de-France, France
Vous intervenez en tant qu’expert.e Linux dans des environnements de production exigeants, marqués par es enjeux de disponibilité, de performance et de sécurisation des infrastructures. Missions Administration et maintien en conditions opérationnelles · Mettre en œuvre et maintenir les infrastructures Linux · Administrer les environnements et garantir leur disponibilité · Gérer la haute disponibilité des plateformes · Assurer un support de niveau 3 (astreintes possibles selon contexte) Industrialisation, automatisation et performance · Automatiser les tâches et processus (scripting, outils d'automatisation) · Participer à la standardisation et à l'industrialisation des plateformes · Contribuer à l'optimisation des performances des serveurs Evolution des environnements et documentation · Qualifier les évolutions technologiques (montées de version, patchs...) · Rédiger la documentation technique (architecture, exploitation...)
Freelance

Mission freelance
Administrateur Zabbix (niv 3) et DevOps H/F

AGH CONSULTING
Publiée le
Grafana
Java
Perl (langage)

1 an
600-700 €
Yvelines, France
Vos missions : -Accompagner l'ensemble des projets de transformation CA-GIP autour de l'Observabilité (BUILD) -Contribuer à la rationalisation des solutions et technologies de Supervision du monde Open, Réseau et Natif -Garantir l'opérabilité de la plateforme Zabbix et du Monitoring As Code -Être force de proposition de mise en oeuvre de nouveaux composants techniques industrialisés, sécurisés, packagés et automatisés (DevOps) -Veiller aux optimisations liées à l'automatisation des actes d'administration nécessaires dans les choix et modèles d'implémentation des composants. -Assurer le support d'expertise en relation avec l'éditeur et les équipes de support off-shore (RUN) -Assurer la veille technologique et anticiper les Roadmaps Produit avec le Product Owner -Veiller au contrôle qualité et à l'amélioration continue des plateformes Zabbix L'environnement technique : -Supervision Open Zabbix -Métrologie & Dashboarding : Grafana, InfluxDB -Hypervision Netcool Operation Insight (NOI) servant tous les environnements techniques -Contexte de fabrication et de production industrialisé, automatisé. -Contexte de scalabilité, performance et robustesse -Environnement sécurisé exigé dans le monde bancaire. -50 000 serveurs
CDI

Offre d'emploi
Lead AI Engineer

ANDEMA
Publiée le
AI
GenAI
Large Language Model (LLM)

60k-75k €
Paris, France
Dans le cadre d’un projet stratégique Data & IA, nous accompagnons l’un de nos clients, acteur tech à fort enjeu produit, dans le recrutement d’un Lead AI Engineer. Le rôle Le Lead AI Engineer est responsable de la conception, du développement et du déploiement de solutions IA à forte valeur métier. À la fois référent technique IA et acteur clé du delivery, il combine une posture très hands-on avec une vision produit / ROI, en lien étroit avec les équipes métier, produit et la direction. Vos responsabilités 1. Conception & développement de solutions IA (cœur du poste) Concevoir et développer des solutions IA avancées : LLM & GenAI (RAG, MCP, agents, workflows IA, fine-tuning si nécessaire) Modèles de scoring, recommandation, prédiction, classification Développer des solutions robustes, scalables et industrialisées, prêtes pour la production Être très fortement hands-on en développement, principalement en Python Garantir la qualité du code, la performance, la sécurité et la maintenabilité Utiliser des outils d’assistance au développement (ex. Claude Code) 2. Leadership technique & delivery IA Porter les projets IA de bout en bout : cadrage fonctionnel et technique, choix d’architecture, priorisation delivery, mise en production et suivi de la valeur Jouer un rôle de leader technique, sans management hiérarchique direct Être capable d’arbitrer et de prendre des décisions techniques structurantes Structurer le delivery dans une logique produit et ROI, en lien avec le CPTO 3. Interface produit, métier et direction Travailler en proximité avec : les équipes métiers, le produit, les équipes techniques, la direction Traduire des besoins métier complexes en solutions IA concrètes Animer des ateliers de cadrage, restituer les avancées, vulgariser les sujets IA Porter une vision transverse des projets (roadmap, dépendances, risques) 4. Structuration et montée en maturité IA Contribuer à la vision IA globale (choix technologiques, standards, bonnes pratiques) Mettre en place des patterns réutilisables (RAG, pipelines IA, templates projets) Participer à la diffusion de la culture IA Assurer une veille active sur les évolutions IA (LLM, frameworks, usages) Environnement technique Langage : Python (expert) IA / Data : LLM / GenAI, RAG, embeddings, agents Pandas, PySpark (selon cas) Plateforme Data : MinIO, MongoDB, PostgreSQL, ElasticSearch, Airflow, RabbitMQ Infra : Docker, Kubernetes Dataviz / exposition : PowerBI, Metabase Outils : Git, CI/CD, outils d’IA d’assistance au développement
Freelance

Mission freelance
Ingénieur Plateformes Kubernetes / OpenShift

Deodis
Publiée le
Docker
Kubernetes
Openshift

1 an
350-500 €
Annecy, Auvergne-Rhône-Alpes
(Merci de ne pas répondre si vous n'avez pas ces compétences !) Les taches de l’équipe sont les suivantes : · Suivi des architectures proposées par le pôle du client pour s’assurer qu’elles respectent le cahier des charges BPCR et les exigences du client final · Participation aux réunions d’adoption de nouvelles offres avec les mêmes responsabilités que le point précédent. · Participation aux upgrades des plateformes et exercices PSI (HNO). · Gestion capacitaire des plateformes. · Participation à la gestion des incidents sur les plateformes. · Support aux AppOps et aux utilisateurs sur l’utilisation des plateformes et des services proposés par l’équipe. · Création et MCO des images docker de référence utilisées sur les plateformes (Debian, alpine, Ubuntu). Un certain nombre d’images middleware (php, apache, JRE, python, Terradata) sont fournies s’intégrant directement à l’écosystème du client · Développement interne en python (script ou API) permettant de gérer les plateformes, fournir des dashboards, exposer des métriques, afficher le respect des règles de déploiement et configuration. (Technologies : FastApi, Gitlab, Gitlab-ci, python, Hugo, Gitlab Pages) · Création de dashboards Grafana pour suivre la plateforme et apporter de la visibilité aux utilisateurs finaux.
Freelance

Mission freelance
Cloud Automation & Data Ingénieur junior (H/F)

Insitoo Freelances
Publiée le
AWS Cloud
Bash
Python

2 ans
350-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Cloud Automation & Data Ingénieur junior (H/F) à La Ciotat, France. Les missions attendues par le Cloud Automation & Data Ingénieur junior (H/F) : Automatiser l’intégralité des infrastructures Cloud et des services de données. Industrialiser les déploiements via des pratiques DevSecOps rigoureuses. Concevoir des architectures orientées données (Data Lakes, Streaming) hautement disponibles. Accompagner les équipes projets dans l’adoption des meilleures pratiques Cloud & Data. Responsabilités Principales 1. Automatisation & Infrastructure as Code (IaC) Concevoir et déployer des infrastructures via Terraform. Gérer le cycle de vie complet des ressources sur AWS. Automatiser les services Data (S3, Glue, Kinesis, etc.) et optimiser la performance des environnements. 2. DevSecOps & CI/CD Construire et maintenir des pipelines CI/CD (GitLab, GitHub ou Jenkins). Intégrer nativement la sécurité (contrôles de conformité, scans de vulnérabilités). Automatiser les tests de qualité de données et la validation des schémas. 3. Platform Engineering & Architecture Data Développer des frameworks internes pour faciliter l'usage du Cloud (Serverless, Conteneurs). Mettre en œuvre des architectures orientées événements (Kinesis, Lambda). Assurer l'ingestion, le stockage et la fluidité des flux au sein du Data Lake. 4. Sécurité, Gouvernance & Conformité Piloter la gestion des identités et des accès (IAM) et le chiffrement (KMS). Appliquer les politiques de gouvernance : catalogage, traçabilité et rétention des données. Garantir l'auditabilité et le monitoring des données sensibles. Compétences Requises Cloud : Maîtrise approfondie d'AWS (Core services & Data stack). IaC : Expertise confirmée sur Terraform. Conteneurisation : Docker, Kubernetes. Data Engineering : ETL/ELT, modélisation de données, cycle de vie de la donnée. Développement : Python (avancé), Bash, SQL. Outils : Écosystème CI/CD, la connaissance de Snowflake est un plus significatif.
Freelance

Mission freelance
Ingénieur Poste de travail Sécurité WAPT & MDT

Sopra Steria
Publiée le
Administration Windows
Microsoft Deployment Toolkit (MDT)
Powershell

12 mois
450-480 €
Paris, France
Au sein d'une organisation du secteur défense, vous intégrez une activité d'infrastructure dédiée au poste de travail et à sa sécurité. Activités principales : · Proposer des scénarios de masterisation et montées de version : - Proposer des scénarios de méthodes de montées de versions en lien avec les MOE en charge de l'assistance utilisateurs et des déploiements, - Proposer des scénarios de gestion des drivers, BIOS et firmwares pour les postes de travail · Concevoir les outils de création de poste de travail : - Création d'un kit d'accompagnement au changement (tutoriels, documentation, procédures), - Création d'un kit de masterisation, - Assistance au chef de projet industrialisation dans la mise en œuvre des nouvelles méthodes · Administrer et exploiter la solution WAPT et MDT : - Réalisation de packages applicatifs (packaging WAPT) - Déploiement, mise à jour et maintien en condition opérationnelle des postes, - Automatisation des installations et configurations Participer aux déploiements et à l'industrialisation : - Déploiement en masse des postes de travail, - Industrialisation des processus de déploiement, - Contribution à l’optimisation des performances de déploiement, Contribuer à la sécurisation des postes de travail : - Connaitre les mécanismes de durcissement des masters (hardening), - Mise en place de tous types de dispositifs de sécurité (ex : clés USB sécurisées, OTP, token, YubiKey,..), - Contribution à la sécurisation des environnements utilisateurs Intervenir sur l'environnement technique : - Interaction avec les outils WAPT, Tanium, MDT, - Contribution sur les aspects DHCP, routage et protocoles réseau, - Réalisation de scripts d'automatisation (PowerShell , DOS, Python).
Freelance

Mission freelance
Expertise Elastic / Kafka

Root-MENU
Publiée le
Apache Kafka
Grafana
Python

6 mois
600-800 €
Niort, Nouvelle-Aquitaine
Dans le cadre de l’évolution de son système d’information nous recherchons un profil disposant de compétences avérées en matière d'expertise Kafka / Elastic pour développer, industrialiser et automatiser la plateforme Kafka / Elastic. ∗ Assister et conseiller dans le choix et l’utilisation des méthode ∗ Informer sur les évolutions ∗ Former aux nouvelles technologies et systèmes ∗ Participer aux études et développement & conduite d’études ponctuelles ∗ Gérer des normes, méthodes, outils et référentiels ∗ Mettre en place les normes, méthodes et outils et en vérifier l'application ∗ Certifier des composants et applications développées
Freelance

Mission freelance
Développeur Fullstack Confirmé (H/F)

MP Advertising
Publiée le
C/C++
Go (langage)
Python

5 mois
500-700 €
Paris, France
En tant que Développeur Fullstack Freelance, vous rejoignez une équipe tech à taille humaine, au cœur des opérations quotidiennes de gestion et d’analyse. Sur une mission d’au moins 5 mois, vous prenez en charge le développement, l’évolution et la fiabilisation d’une plateforme propriétaire utilisée par les équipes front-office et back-office. Votre rôle est central pour garantir la performance, la stabilité et la qualité des outils métier, dans un environnement où la polyvalence technique et la rigueur sont essentielles. Vos principales missions seront de : Maintenir et améliorer la plateforme interne de suivi et d’analyse des fonds. Développer de nouvelles fonctionnalités fullstack en Python, React et Go, dans un environnement orienté performance et résilience. Optimiser les modèles métiers existants (calculs, analytics, courbes, ratios, pricing). Contribuer aux cycles complets de développement avec les équipes front-end et back-end. Améliorer la performance et la structuration de la base de données SQL. Assurer l’intégration, la qualité, les tests et la documentation technique. Collaborer étroitement avec les équipes métier pour traduire les besoins opérationnels en solutions robustes. Proposer des améliorations continues sur l’architecture, la sécurité applicative et l’automatisation.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

706 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous