Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 045 résultats.
CDI

Offre d'emploi
Administrateur Système et Réseaux H/F

ADSearch
Publiée le

40k-50k €
Valbonne, Provence-Alpes-Côte d'Azur
[NoESN/SSII] Administrateur Systèmes & Réseaux H/F - CDI – Création de poste - PME en croissance – 45/50K€ - Sophia-Antipolis - SANS ASTREINTES Je recrute pour un client, PME solide d’une trentaine de collaborateurs, qui poursuit sa structuration interne son 1er Administrateur Systèmes & Réseaux H/F Le poste est central et stratégique dans l'évolution de la société : ici, c’est un levier direct d’efficacité pour l’ensemble des équipes. VOTRE POSTE Rattaché à la Direction Technique, et en lien avec tous les services (Comptabilité, Commerce, Finance/RH, Développement, ...) vous prenez en main l’ensemble de l’environnement IT interne avec un objectif clair : fiabiliser, sécuriser et simplifier les usages. Vous intervenez sur un périmètre large, à la fois technique et organisationnel. Vos responsabilités : Systèmes, réseau & support - Gérer l’infrastructure réseau du site, - Assurer le bon fonctionnement du parc informatique, - Piloter les incidents et accompagner les utilisateurs, - Intervenir sur des environnements réseau (switch, firewall, WiFi, VPN). Structuration / Sécurisation - Faire évoluer les outils existants pour les rendre plus efficaces, - Mettre en place des règles d’accès adaptées, -
CDI

Offre d'emploi
Data Scientist H/F

█ █ █ █ █ █ █
Publiée le

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Ingénieur DATA

ROCKET TALENTS
Publiée le
Apache Kafka
Big Data
Cloudera

1 an
400-460 €
Saint-Quentin, Hauts-de-France
Ingénieur DATA : . Contexte Dans le cadre de l’exploitation et de l’optimisation de notre infrastructure Cloudera Data Platform (CDP), nous recherchons un prestataire expert capable d’assurer le support technique, l’analyse et la résolution des incidents critiques ainsi que l’optimisation continue de la plateforme. Le prestataire devra maîtriser les architectures Cloudera, posséder une expertise avancée en développement Shell, Ansible et Python, et être capable d’intervenir sur les problématiques de dimensionnement et de tuning de l’infrastructure. Une connaissance de Kafka est requise pour la gestion des flux de données en temps réel. Des connaissances en sur la plateforme Dataiku seraient un plus. 3. Missions Support Technique Niveau 2 et 3 sur Cloudera Data Platform • Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera. • Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers. • Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire. • Implémenter et améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes. • Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka • Administrer et optimiser l’infrastructure Kafka sur Cloudera. • Gérer la scalabilité et la résilience des clusters Kafka. • Assurer une supervision efficace des topics, brokers et consommateurs. • Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets. • Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement • Développer et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. • Automatiser la gestion des incidents récurrents et les procédures de maintenance. • Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure • Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. • Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. • Analyser et proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier. • Assurer une veille technologique et être force de proposition pour améliorer la plateforme. Documentation et Transmission de Connaissances • Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre. • Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. • Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2. 4. Profil Recherché Le prestataire devra justifier des compétences suivantes : • Expérience avérée en administration et support de Cloudera Data Platform. • Maîtrise de Kafka (optimisation, gestion des performances et de la scalabilité). • Capacité à analyser et résoudre des incidents critiques sur un environnement Big Data. • Maîtrise des langages Shell, Ansible et Python pour l’automatisation et le déploiement. • Expérience sur les bases de données Elasticsearch. • Capacité à intervenir sur des problématiques de dimensionnement et d’optimisation des performances. • Autonomie, rigueur et capacité à être force de proposition. • Une connaissance de la plateforme Dataiku serait un plus. • Capacité à collaborer avec des équipes multi-disciplinaires et à transmettre des connaissances. • Bonnes connaissances de Linux (à l'aise avec un terminal).
Freelance

Mission freelance
Data Quality Engineer Senior

INFOGENE
Publiée le
Bloomberg
Data Engineering
Data quality

6 mois
500-1k €
Paris, France
Contexte & Enjeux Les données de marché de référence (futures, yields, FX, indices, obligations) présentent de nombreuses anomalies non détectées, non tracées et souvent corrigées manuellement. Cette situation entraîne une perte de temps significative et impacte la confiance des équipes Research & Prediction. Objectif de la mission Structurer, fiabiliser et industrialiser les contrôles de qualité sur les données de marché, avec une approche à la fois technique et analytique. Les 3 axes principaux 1. Audit Cartographie complète des contrôles existants Identification des gaps par classe d’actifs Construction d’un backlog priorisé 2. Implémentation Développement d’une librairie modulaire de quality checks en Python Remédiation des données historiques Gestion des escalades avec les fournisseurs de données (Bloomberg) 3. Industrialisation & IA Mise en place d’un monitoring automatisé (dashboards KPI, alerting) Industrialisation des contrôles en production Réalisation d’un POC basé sur des LLMs pour : Génération semi-automatique de contrôles Analyse des causes racines des anomalies
Offre premium
Freelance

Mission freelance
Administrateur Système DevOps (F/H)

ODHCOM - FREELANCEREPUBLIK
Publiée le
Administration système
Docker
Monitoring

7 mois
300-430 €
Gradignan, Nouvelle-Aquitaine
Nous recherchons pour notre client, (Référencement direct FreelanceRepublik depuis 2019), un(e) Administrateur Système DevOps . Objet de la prestation : La prestation se déroulera dans le service « Socle Développement » ayant en charge la gestion de l’ensemble des outils de développement sur les technologies Systèmes Ouverts de l'entreprise : - IDE Java : Eclipse VSC - Fabrication : Maven - Gestion de sources : Svn / GIT - Gestion des livrables : Artifactory - Bug Tracker : JIRA / Kanboard - Gestion documentaire : Confluence / XWiki - Qualimétrie : SonarQube / Xray / CASR - Tests fonctionnels : Squash TM - Tests automatisés : Squash Autom - Intégration Continue : Jenkins - Industrialisation / GCL : Jenkins - Infrastructure : VM / Kub L’activité sur les outils est de 2 types : - administration technique (installation, montée de version, gestion des incidents, …) - administration fonctionnelle (administration, guide d’utilisation, bonnes pratiques, ...)
Freelance
CDI

Offre d'emploi
Data Engineer GCP / Spark – Plateforme Data (H/F)

Etixway
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

1 an
40k-65k €
400-600 €
Paris, France
Dans le cadre du renforcement d’une équipe Data au sein d’un grand groupe du secteur des médias, nous recherchons un Data Engineer confirmé pour intervenir au cœur d’une plateforme data stratégique. Tu rejoindras une équipe en charge de la collecte, la centralisation et la transformation de données issues de sources hétérogènes , avec des enjeux forts de volumétrie, de performance et de qualité. Tes principales missions : Concevoir, développer et maintenir des pipelines data robustes et scalables Assurer l’ ingestion et la transformation de données multi-sources Optimiser les performances des traitements (Spark / SQL) Orchestrer les flux de données via Airflow Structurer et organiser le stockage des données Participer à l’ industrialisation des traitements (CI/CD, infrastructure) Garantir la qualité, la sécurité et la fiabilité des données Contribuer aux échanges techniques et à l’amélioration continue des pratiques
Freelance
CDI
CDD

Offre d'emploi
Architect Puits de logs / Log Management

RIDCHA DATA
Publiée le
Backlog management
Security Information Event Management (SIEM)
SOC (Security Operation Center)

1 an
Île-de-France, France
🚀 Contexte de la mission Dans le cadre du renforcement d’un Security Operations Center (SOC) , nous recherchons un Architecte Data Visibility / Log Management afin d’accompagner la structuration, le déploiement et l’exploitation de la chaîne de collecte des logs de sécurité. 👉 La mission couvre l’ensemble du cycle de vie de la visibilité des données : du cadrage des besoins jusqu’à l’exploitation opérationnelle. 🎯 Objectifs de la mission Renforcer la couverture de détection du SOC Structurer les besoins en log management Déployer une chaîne de collecte robuste et sécurisée Assurer la pérennité et l’évolutivité de la visibilité data 🧩 Vos missions 🔍 Lot 1 : Cadrage & Architecture Exploiter les audits existants et identifier les écarts Définir l’architecture cible de collecte des logs Traduire les besoins en choix techniques et principes d’architecture Rédiger le cahier des charges Participer aux consultations (RFP) Définir une trajectoire d’évolution adaptée ⚙️ Lot 2 : Implémentation Élaborer le plan de déploiement (roadmap, dépendances, tests) Piloter la mise en place de la chaîne de collecte (agents, pipelines, SIEM) Garantir la qualité des logs (format, complétude, horodatage) Conduire les phases de tests et de validation Produire la documentation technique complète Assurer le transfert de compétences aux équipes internes 📦 Livrables attendus Cahier des charges & dossier d’architecture cible Dossier RFP complet Feuille de route de déploiement Plans de tests & comptes rendus de recette Documentation d’exploitation et troubleshooting Support de transfert de compétences 🛠️ Environnement technique SOC / SIEM Log management & data visibility Collecte et traitement des logs (parsing, normalisation, enrichissement) Protocoles de collecte et sécurisation des flux Environnements hybrides (on-premise / cloud) Contraintes de volumétrie, performance et résilience
Freelance
CDI

Offre d'emploi
Architecte technique Sécurité AWS - Data (H/F)

AVA2I
Publiée le
Amazon S3
AWS Cloud
Data Lake

4 ans
Île-de-France, France
Dans le cadre de la mise en place et de la sécurisation d’une plateforme Data Cloud, vous intervenez sur des architectures basées sur AWS intégrant des composants Data Lake, Data Warehouse et des services de stockage type S3. L’objectif est de garantir la sécurité des accès, la protection des données et la conformité dans un environnement à forts enjeux. 🛠️ Environnement technique Cloud : AWS Stockage : Amazon S3 Data : Data Lake / Data Warehouse Sécurité : IAM (Identity & Access Management) Outils : CI/CD, Infrastructure as Code (Terraform/CloudFormation – souhaité 🚀 Missions 🔐 Sécurité Cloud Définir et appliquer les politiques de sécurité AWS Gérer les accès via IAM (rôles, policies, permissions) Mettre en œuvre les principes de least privilege ☁️ Architecture Participer à la conception d’architectures sécurisées Sécuriser les flux et le stockage de données (S3, Data Lake) Contribuer à la robustesse des plateformes Data 📊 Gouvernance Assurer la conformité (RGPD, normes internes) Mettre en place des contrôles et audits de sécurité Participer à la gouvernance des accès et des données ⚙️ Amélioration continue Automatiser les contrôles de sécurité Mettre en place du monitoring et des alertes Promouvoir les bonnes pratiques sécurité auprès des équipes
CDI

Offre d'emploi
Administrateur Réseaux et Systèmes (H/F)

SEA TPI
Publiée le

38k-40k €
Port-Saint-Louis-du-Rhône, Provence-Alpes-Côte d'Azur
Nous recrutons un Administrateur Systèmes & Réseaux avec une orientation réseaux (70% réseaux et 30% systèmes) pour un acteur majeur de la logistique à Port-Saint-Louis-du-Rhône (13). Au cœur d'un environnement industriel exigeant, vous participez activement à la disponibilité, à la sécurité et à la performance d'un système d'information essentiel aux opérations du premier terminal portuaire français en Méditerranée. Le poste inclut des interventions ponctuelles en hauteur ainsi qu'un système d'astreintes. Vos principales missions seront les suivantes : • Administrer et maintenir notre parc de serveurs (majoritairement Windows, un peu de Linux). • Assurer la supervision, les mises à jour, la sauvegarde et la sécurité de l'infrastructure. • Gérer et optimiser l'architecture virtualisée (VMware). • Administrer Active Directory (DNS, DHCP, GPO) et les services Office 365, Azure AD, Intune. • Gérer les réseaux : flux, routage, Wi-Fi interne/externe, VLAN, VPN, QoS. • Assurer la gestion du stockage (SAN/NAS) et de la téléphonie sur IP. • Participer au support utilisateur de proximité ponctuel (niveau 2/3). • Collaborer avec les fournisseurs et prestataires. • Réaliser des interventions nécessitant du travail en hauteur. • Participer aux astreintes (1 toutes les 3 semaines – 18h→8h). Les missions énumérées ci-dessous ne sont pas exhaustives, il s'agit des missions principales. Référence de l'offre : v50ucfftbk
CDI

Offre d'emploi
Chef de projet Data-Scientist F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Python

Bagneux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Business Analyst Data F/H - Marketing (H/F)

█ █ █ █ █ █ █
Publiée le
Oracle Database
PostgreSQL
Scrum

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Architecte Data

Bifora
Publiée le
Big Data
CICS (Customer Information Control System)
Cloudera

12 mois
500-680 €
Île-de-France, France
Nous recherchons un Architecte Data / Expert Data Modélisation pour le compte d'un de nos clients dans le secteur de l'assurance. Le consultant intégrera l'équipe Architecture Solutions SI de la Direction Stratégie SI Architecture et Cloud. Il accompagnera les projets dans la définition de leur architecture data et prendra en charge la modélisation fonctionnelle des objets métiers. Rôles et responsabilités Organiser et suivre l'accompagnement des projets dans la définition de leur architecture de solution au niveau data Définir, promouvoir, enrichir et suivre la mise en œuvre du cadre normatif de constitution du SI Réaliser la modélisation fonctionnelle des objets Métiers dans le cadre du Modèle Fonctionnel Groupe Mettre à jour la cartographie dans Mega HOPEX Accompagner les équipes de réalisation dans la définition des Modèles Logiques de Données (MLD) déclinés depuis le MFC Apporter un support technique DBA Études sur les Modèles Physiques de Données (MPD) Définir les architectures solutions (fonctionnelles/data) de la phase de faisabilité à la mise en production Produire les livrables d'architecture (dossiers, mise à jour du référentiel) Présenter les solutions envisagées dans les instances de validation Délivrer des avis d'architecture et porter l'engagement vis-à-vis du demandeur Coordonner l'activité d'architecture sur certains périmètres
Freelance
CDI

Offre d'emploi
Data Engineer H/F

OBJECTWARE
Publiée le
Apache Airflow
Microsoft Power BI
Python

1 an
Tours, Centre-Val de Loire
Nous recherchons un Ingénieur Data H/F pour une mission à Tours. Missions : Développer et maintenir des pipelines de données avec Airflow Concevoir et optimiser des traitements de données en Python Collecter, nettoyer et transformer des données issues de sources variées Alimenter des entrepôts de données (Data Warehouse / Data Lake) Assurer la qualité, la fiabilité et la traçabilité des données Collaborer avec les équipes métiers pour la mise à disposition de dashboards sous Power BI Participer à l’optimisation des performances et à l’automatisation des flux
Freelance

Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/la

WorldWide People
Publiée le
Data science

6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
Freelance

Mission freelance
Data Scientist - Bases de Données Graph & SQL

Sapiens Group
Publiée le
Data science
MySQL
Neo4j

1 an
Meudon, Île-de-France
Contexte Nous recherchons un profil jeune et motivé pour rejoindre notre équipe en tant que Data Scientist orienté gestion et modélisation de bases de données. Missions Concevoir, modéliser et administrer des bases de données, notamment orientées graphe Manipuler et exploiter des données via Neo4j et MySQL Participer à la structuration et à l’optimisation des flux de données Contribuer à des projets innovants nécessitant une forte compréhension des données Pourquoi nous rejoindre ? Environnement dynamique et innovant Projets concrets avec un impact réel Possibilité d’évolution et montée en compétences Si vous êtes passionné par la donnée et souhaitez vous investir dans un projet ambitieux, ce poste est fait pour vous.
CDI

Offre d'emploi
Chef de projet Réseaux Sécurité F/H

LED'RH
Publiée le
Administration systèmes et réseaux
Cybersécurité
Gestion de projet

45k-55k €
Hauts-de-France, France
Envie d’intégrer une entreprise pour construire et faire évoluer un service IT ? Je suis Laetitia de LED’RH et recherche des profils expérimentés en Administration Réseaux et Sécurité et en Gestion de projets Infrastructure , pour plusieurs clients, entreprises de services IT et spécialisées Infra & Sécurité. 📍 Localisation : Hauts-de-France 💼 Type de contrat : CDI Les missions (liste non exhaustive) : Piloter des projets IT (infra, réseau, sécurité) de bout en bout Coordonner les équipes techniques internes et prestataires Suivre les coûts, délais et risques Participer aux choix d’architectures techniques Assurer la communication avec les parties prenantes métiers Assurer le suivi du projet ou de la relation client, ainsi que le support utilisateurs
6045 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous