Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 511 résultats.
Freelance
CDD

Offre d'emploi
Développeur full stack

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
Angular
Mongodb
NestJS

6 mois
40k-45k €
400-550 €
Grenoble, Auvergne-Rhône-Alpes
Contexte de la mission Intégré au sein de l'équipe R&D Leadformance, vous intervenez sur tout le cycle de développement de l'application du client, pour les TPE/PME clients. Présence sur site 4J/semaine. 1J/semaine de télétravail. Objectifs et livrables : L'objectif est d'intégrer une équipe de 4/5 développeurs dont 1 Team Leader, 1 dev/SM et un product owner. Les missions attendues sont : Développement de l’application, architecture micro services multi-technologie Angular/AngularJS, NodeJS, MongoDB, Python/Django, RabbitMQ. Développement de brique FE et BE avec une bonne appétence pour le BE qui est en Nest pour la majeure partie Environnement multi compétence : conception, architecture, développement, implémentation de la stratégie de test, documentation, mise en place et maintien de la chaine CI / CD, suivi et résolution de la dette technique. Nouveaux développements, releases, bug fixes, documentation. Compétences demandées : Python : Avancé POSTGRESQL : Confirmé RABBITMQ : Confirmé ANGULAR : Confirmé Nest : Confirmé MongoDB : Confirmé typescript : Confirmé
Freelance

Mission freelance
Data Engineer Azure Data Factory - CosmosDB

Atlas Connect
Publiée le
Azure
Azure Data Factory
Azure DevOps

12 mois
490-550 €
Île-de-France, France
Vos missions En tant que Data Engineer , vous serez amené(e) à : Concevoir, développer et maintenir des pipelines d’intégration de données sous Azure Data Factory Assurer la gestion complète des flux de données : ingestion, transformation, normalisation et mise à disposition pour les différents services du SI Réaliser des transformations et agrégations complexes en SQL , dans une logique de qualité, de performance et d’industrialisation Collaborer étroitement avec les équipes métiers afin de comprendre leurs besoins et proposer des solutions techniques adaptées intégrées au Datahub Contribuer à l’ amélioration continue des processus Data : automatisation, fiabilisation, optimisation et bonnes pratiques Participer à la fiabilité et à la qualité du code et des déploiements dans un environnement industrialisé ⚙️ Stack technique Cloud : Azure (hébergement, stockage, orchestration) Data : Azure Data Factory Bases de données : Azure SQL, Cosmos DB Langages : SQL (avancé), Python (Azure Functions) Infrastructure : Terraform (Infrastructure as Code) Qualité & sécurité : SonarCloud, Snyk CI/CD & DevOps : Azure DevOps
Freelance

Mission freelance
Expert Devops Openshift

PROPULSE IT
Publiée le
DevOps
Openshift

24 mois
400-800 €
Paris, France
PROPULSE IT recherche un Expert DEVOPS dans le cadre des projets « Conteneurisation OnPremise » et « IAC ». L' équipe souhaite se renforcer avec une prestation d'expert technique sur les technologies KUBERNETES et de mise en place des chaines de CI/CD. La mission sur le périmètre KUBERNETES comporte deux volets principaux : - Accompagnement à l'installation et configuration des clusters La chaîne CI/CD sera composée des éléments Gitlab (repository + pipelines + runners), Hashicorp Vault, Artifactory, Kaniko , Trivy, Grype, Syft, Checkov, Kubernetes, ArgoCd Cette prestation sera menée au sein d'une équipe « DevOps », utilisant la méthodologie « Scrum » et le principe du « GitOps ». Mission : - Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) - Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement. - Réaliser et modifier différents jobs et pipelines Gitlab-CI
CDI
Freelance

Offre d'emploi
Ingénieur Devops Senior

Lùkla
Publiée le
Amazon Elastic Compute Cloud (EC2)
Apache Kafka
Apache Maven

2 ans
45k-55k €
450-550 €
La Défense, Île-de-France
Nous recherchons un(e) Ingénieur DevOps Senior. Véritable pivot technique, vous serez le point de contact privilégié pour les sujets opérationnels de déploiement, de gestion d'infrastructure et d'automatisation. Vous évoluerez dans un écosystème complexe (grands comptes) et collaborerez étroitement avec les Product Owners, les Architectes, les Tech Leads et les équipes d'exploitation pour garantir la stabilité et la performance de nos plateformes Pilotage de l’Infrastructure & Déploiement Gestion Cloud (AWS) : commissionnement et décommissionnement des ressources (EC2, RDS, ELB/ALB, S3). CI/CD & automatisation : maintenir et faire évoluer la chaîne Jenkins (jobs, pipelines). Piloter la migration vers GitLab CI. Gestion applicative : installation des composants (JRE, PHP, Apache, PostgreSQL) et déploiement des applications (configuration Zuul). Infrastructure as Code (IaC) : préparation des playbooks Ansible et des Helm Charts pour l'orchestration Kubernetes. Maintien en Condition Opérationnelle (MCO) Analyse & résolution : diagnostic d'incidents de production et optimisation des performances (RAM, CPU, FS, transactions). Garant des process : veiller au respect des bonnes pratiques (Git flow, Nexus) et gérer les ouvertures de flux inter-plateformes. Sécurité & documentation : maintenir à jour les dossiers de configuration, d’exploitation et les images Docker. Collaboration & Conseil Alerter les équipes projets sur les risques de configuration ou de performance. Assurer l'interface avec les équipes d'infrastructure centrales lors des phases critiques de mise en production. Environnement Technique Cloud & Orchestration : AWS (S3, RDS, API Gateway), Docker, Kubernetes (EKS). CI/CD & Qualité : Jenkins, GitLab CI, Maven/NPM, Git, Sonar, Nexus. Observabilité : ELK Stack. Data & Middleware : Kafka (Event-Driven), PostgreSQL 16, Apache, Nginx, Tomcat. Langages & Scripts : Groovy (pipelines), Java (8/17), Helm, Liquibase, Flyway, REST. Sécurité : SSL, OAuth2, SSO, PingID/PingAM.
Freelance
CDI
CDD

Offre d'emploi
Data Quality Analyst senior

FIRST CONSEIL
Publiée le
BigQuery
Data quality
Google Cloud Platform (GCP)

6 mois
40k-45k €
400-550 €
Île-de-France, France
Au sein d'une équipe composée de data analysts intégrée aux rituels Product, vous participez à l'évolution fonctionnelle et technique de nos produits data en environnement Agile. Vous aurez l’opportunité de collaborer avec l’ensemble des équipes product, tech et métiers autour des missions suivantes : Explorer, analyser et documenter les données du data warehouse du groupe; Contribuer à l’amélioration de la qualité du data warehouse : mettre en place le plan d’action défini sur 2026 : contrôles, monitoring et alerting Réaliser des travaux d’automatisation afin de gagner en productivité et efficacité. Notre stack data : GCP, BigQuery, Python, Looker Studio Profil recherché Formation : Diplôme de niveau BAC +4 à 5, en école d’ingénieurs ou université spécialisé en statistiques, data science, informatique décisionnelle ou data management ; Langues : Français et Anglais courant exigés ;
Freelance
CDI

Offre d'emploi
Ingénieur infra cyber sécurité

TDS
Publiée le
Fortinet
JIRA
Linux

1 an
Issy-les-Moulineaux, Île-de-France
Contexte, description du projet : Au sein de la DSI de la Branche Grand Public et Numérique, la Direction de la Maîtrise des Risques SI est la garante de l’identification et du déploiement des bonnes pratiques en matière de sécurité SI (incluant l’exploitation des outils de cybersécurité, la gestion des identités et des accès, la détection des incidents de sécurité, …), ainsi que de la mise en place des outils de contrôle. Vous serez rattaché à l’équipe « Prévention », équipe à part entière du Centre de sécurité Opérationnelle (CSO), pour contribuer à la mise en œuvre, l’évolution, et l’exploitation quotidienne des outils de cybersécurité. Notamment : • Déployer et opérer les AV/EDR et Scanner de vulnérabilités • Assurer le MCO de ces outils de sécurité • Produire les reporting liés à la gestion des EDR/AV et à la gestion des vulnérabilités • Assurer une veille technologique en matière de méthodes et outils de sécurité • Contribuer au traitement des incidents de sécurité • Assurer l’interfaçage avec le support éditeur pour le traitement des incidents et des évolutions • Définir et implémenter les politiques de scan de vulnérabilités • Comprendre les enjeux et contextualisation des données • Déployer le service de gestion des vulnérabilités et l’implémenter techniquement • Gérer les assets • Gérer les scans (Actif, passif, WAS, AWS, AZURE, Authentifié ou non) • Gérer les rapports d’analyse (Dashboard, Reports) • Structurer l’ordre de correction • Apporter un support aux clients à la prévention et à la remédiation • Exercer une veille technologique pour anticiper les risques et les menaces • Analyser les menaces et les risques dans le contexte • Apporter un appui méthodologique dans les standards actuels de sécurité et qualité • Faire de l’amélioration continue des processus • Assurer la qualité des livraisons de service • Reporter auprès du responsable du service et des clients du service • Rédiger les alertes et incidents de sécurité (tickets ; Jira, ServiceNow) et de rapports d’analyse. Environnement et conditions techniques : • McAfee/Trellix, Eset, Kaspersky, Sophos, Cylance, Sentinel One, Carbon Black, Tehtris… • Qualys, Dynatrace App-Sec, Tenable, CyberWatch, Bitsight, Dependcy Track… • Fortinet, Palo-Alto, Stormshield, Mikrotik… • Nessus, Cyberwatch, Armis, Rapid7… • Linux (Redhat, CentOS, Debian, Windows) • VMware VCD, KVM, OVirt, NSX-T, AWS (déploiement, services, tarification) • Scripting/Développement (bash, perl, python, java) • Supervision (Nagios, ServiceNav, Zabbix, Cloud-watch) • Outils de ticketing (ServiceNow, Jira) Objectifs et Enjeux de la prestation : Apporter un support aux clients internes et projets sur les sujets sécurité des infrastructures ( On-promise et Cloud) : • Assurer un support et une expertise technique sur le choix des contrôles de sécurité adaptés aux besoins BGPN et conformes aux politiques et directives sécurité du Groupe • Anticiper les besoins des clients et les évolutions de la plateforme. • Apporter l’expertise technique afin de réaliser le déploiement/Accompagner de l’EDR (Tehtris) et l’AV (Trellix) sur l’ensemble du parc serveurs BGPN • Apporter l’expertise technique afin de réaliser qualifier les alertes de vulnérabilités et apporter l’assistance à l’analyse pour l’ensemble du parc serveurs BGPN Compétences Techniques : • Bonne connaissance des EDR/AV (expérience sur un projet de déploiement d’une technologie leader souhaitable) • Bonne connaissance des outils de gestion des vulnérabilités • Bonne connaissance des infrastructures SI globalement • Bonne connaissance des projets applicatifs • Bonne connaissance des pratiques SAFE Livrables : 1. Rédaction des Procédures, modes opératoires, processus, fiches reflexes ... 2. Réalisation des différents reporting (KPI, Dashboard...)
CDI

Offre d'emploi
Lead Data Scientist / ML & AI Engineer full remote F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Ocaml
Python
Pytorch

Marseille, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDD
CDI
Freelance

Offre d'emploi
Architecture technique de production   ALS

KEONI CONSULTING
Publiée le
DevOps
Gestion de projet
Kanban

18 mois
20k-60k €
100-500 €
Paris, France
Contexte : Nous recherchons pour un de nos clients un architecte de production et referent technique Mission · En tant qu’expert, il agit comme référent technique et stratège. · Il définit et conçoit les architectures d’exploitation et de production en fonction des besoins métiers, des contraintes de performance et de sécurité, et des standards de l’entreprise. · Il prend en charge les diagnostics complexes, propose des solutions d’évolution et de transformation, et met en place des architectures résilientes et adaptées aux · exigences de haute disponibilité et de continuité de service. Il conseille les équipes projets et directions techniques sur les choix stratégiques, assure une veille technologique et formalise les bonnes pratiques afin d’orienter les évolutions de la production dans le temps. Activités et tâches • Conception des architectures techniques • Définir les architectures d’hébergement (serveurs, clusters, VM, conteneurs, cloud…) • Spécifier les besoins en termes de réseau, stockage, sécurité et supervision • S’assurer de la cohérence avec les standards IT • Validation du choix d’évolution (scalabilité, haute dispo, PRA/PCA) c. Livrables • Rédaction des dossiers d’architecture (DAT, DEX) • Plan de migration, montée de version • PV des tests techniques • Dossier d’analyse des risques opérationnels COMPÉTENCES ATTENDUES Infrastructure : Maîtrise des environnements SharePoint, SQL Server, Windows Server, Active Directory, IIS et Power BI. Connaissance des mécanismes de sécurité Microsoft (Kerberos, NTLM, HTTPS). Compétences en gestion de pare-feu et protocoles réseau. Langages et outils : Maîtrise de PowerShell pour l'automatisation des tâches. Familiarité avec les méthodologies agiles (Kanban) et les outils de gestion de projet (Azure DevOps). Familiarité avec les méthodologies agiles (Kanban) et les outils de gestion de projet (Azure DevOps).
Freelance
CDI

Offre d'emploi
Ingénieur IA Confirmé – Python / LangChain (Agents IA métiers) (H/F)

AVA2I
Publiée le
LangChain
LangGraph
Python

3 ans
40k-45k €
400-550 €
Île-de-France, France
Dans le cadre de la montée en puissance des cas d’usage IA, nous recherchons un(e) Ingénieur IA Confirmé pour rejoindre une squad IA dédiée à la conception, au développement et à l’industrialisation d’ agents IA métiers (assistants, copilotes, automatisations intelligentes). Les agents s’appuient sur une plateforme centralisée basée sur LangChain / LangGraph (modèles, RAG, observabilité, sécurité), gérée par une équipe dédiée. ➡️ Le rôle est donc orienté développement produit / intégration , et non MLOps / infra / entraînement de modèles. Missions principalesDéveloppement d’agents IA Concevoir et développer des agents IA métiers (mono-agent / multi-agents) Implémenter des workflows : boucles contrôlées, gestion d’erreurs, retries, validation Développer des tools sécurisés (appel API, requêtes DB, actions internes) RAG & exploitation de la connaissance Utiliser les services de recherche documentaire (RAG) fournis par la plateforme Ajuster les stratégies de récupération : reformulation, filtres, synthèses, citations Gérer les risques : hallucinations, réponses incomplètes, non-respect des contraintes Intégration SI & exposition consommable Intégrer les agents dans des workflows et applications existantes Exposer les agents via API / intégration MS Teams / événements Appliquer les standards : authentification, logs, traçabilité, versioning, gestion d’erreurs Qualité & industrialisation Mettre en place tests unitaires / intégration + jeux de tests “agent/prompt” Contribuer aux standards qualité (Definition of Done) Produire documentation technique et support au run Compétences techniques requises Python (solide maîtrise, bonnes pratiques, structuration, logs, tests) Développement backend ( FastAPI / Flask ou équivalent) API REST , intégration SI (API, bases de données, connecteurs) Git + usage quotidien CI/CD Très appréciées LangChain / LangGraph (ou framework agentic équivalent) Concepts : agents, tool-calling, RAG, mémoire/contexte, évaluation qualité Expérience en environnement contraint : sécurité, audit, traçabilité Bonus Observabilité : métriques, traces, dashboards Sécurité applicative : OWASP, gestion des secrets, validation entrées, anti prompt-injection
CDI
Freelance

Offre d'emploi
Data Engineer

LEVUP
Publiée le
AWS Cloud
Python
Snowflake

12 mois
43k-66k €
460-550 €
Liège, Belgique
Data Engineer (Snowflake / AWS) 📍 Localisation : Liège (Belgique) 📅 Expérience : 3 ans minimum 🎯 Mission principale En tant que Data Engineer , vous contribuez à la conception, au développement et à l’optimisation de plateformes data modernes dans un environnement cloud. Vous intervenez sur l’architecture, l’ingestion, la transformation et la gouvernance des données en utilisant Snowflake, AWS et Databricks , avec une attention particulière à la gestion des métadonnées et à la qualité des données. 🛠️ Responsabilités🔹 Développement Data Concevoir et maintenir des pipelines de données robustes (batch & streaming) Développer des flux ETL/ELT performants Modéliser des entrepôts de données (Data Warehouse / Data Lakehouse) Implémenter des solutions sur Snowflake et Databricks 🔹 Cloud & Infrastructure (AWS) Déployer et gérer des services AWS (S3, Glue, Lambda, EC2, IAM, Redshift…) Automatiser les workflows (CI/CD, Infrastructure as Code – Terraform est un plus) Assurer la sécurité et la performance des environnements cloud 🔹 Metadata & Data Governance Mettre en place des stratégies de gestion des métadonnées Maintenir un data catalog Assurer la traçabilité (data lineage) Participer aux initiatives Data Quality 🔹 Collaboration Travailler avec Data Analysts, Data Scientists et équipes métiers Participer aux choix technologiques et bonnes pratiques Documenter les solutions techniques 🧠 Profil recherché🎓 Formation Master en informatique, data engineering ou équivalent 💡 Expérience Minimum 3 ans d’expérience en data engineering Expérience concrète sur projets cloud data 🔧 Compétences techniques indispensables Snowflake (modélisation, performance tuning) AWS (S3, Glue, Lambda, IAM…) Databricks / Spark (PySpark) SQL avancé Python Gestion des métadonnées & data catalog ➕ Atouts Connaissance de Data Mesh ou Lakehouse Expérience dans environnement réglementé (pharma, industrie) Outils BI (Power BI, Tableau…) CI/CD, Git, DevOps 🌍 Langues Français courant Anglais professionnel (documentation et échanges techniques) 🤝 Soft Skills Esprit analytique Autonomie Sens de la qualité et rigueur Capacité à vulgariser des sujets techniques
CDI

Offre d'emploi
Ingénieur DevOps H/F

█ █ █ █ █ █ █
Publiée le
CI/CD
DevOps

Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Ingénieur système & réseau (H/F) - 95

MP Advertising
Publiée le
Cisco
Grafana
Linux

8 mois
Val-d'Oise, France
Dans une équipe de 5 Personnes, dédiée à l'infrastructure IT (Architecture et mise en place), L'objectif est de mettre en place dans les locaux de la société l'infrastructure cible de leurs clients ; réseaux, serveurs, stockages, AD en cohérence avec l'architecture IT définie. Puis de se déplacer sur les sites clients en France et à l'International Il s'agira de missions de 2 -3 semaines afin de de finaliser les interconnexions, tester les procédures de sauvegarde/ restaure et supporter les équipes d'intégration. La mise en place de la sécurité (filtrage au niveau des firewalls, mise en place de règles au niveau du WAF, et configuration des VPNs). Il est demandé également de maintenir une infrastructure interne dédiée à l’intégration de leurs projets : Suivi des inventaires, supervision, support pour la fourniture de ressource (VM, configuration de VPN et routage Opensence) ou de nouveaux serveurs Host (mise en rack et câblage + configuration réseau et stockage) Installer et configurer les composants réseaux (CISCO / Palo Alto) sur une infra client Déployer l'infrastructure (reseau / stockage / serveurs linux / AD) et l'intégrer au site client Fournir un support actif à la gestion des environnements d'intégration (gestion du parc / Location / inventaire/ fourniture de ressources)
Freelance
CDI

Offre d'emploi
Senior DevOps GCP

KLETA
Publiée le
GitLab CI
Google Cloud Platform (GCP)
Terraform

3 ans
Paris, France
Dans le cadre de projets de transformation numérique, nous recherchons un Senior DevOps GCP pour accompagner nos clients dans l’industrialisation de leurs environnements cloud. Vous interviendrez sur des missions d’audit, de cadrage et de mise en œuvre de solutions DevOps sur GCP. Vous analyserez les architectures existantes, proposerez des trajectoires d’évolution et mettrez en place des pipelines CI/CD adaptés. Vous contribuerez également à la sécurisation des environnements, à l’automatisation des déploiements et à l’amélioration des pratiques d’observabilité. En parallèle, vous accompagnerez les équipes client dans leur montée en compétence sur GCP et les pratiques DevOps modernes.
Freelance

Mission freelance
Développeur Back-End Odoo

TEKTEO
Publiée le
Access Control List (ACL)
API
Docker

1 an
100-400 €
Lyon, Auvergne-Rhône-Alpes
Le Développeur Back-End Odoo assure la maintenance, l’évolution et la sécurisation des modules Python de la plateforme Odoo Community. Il analyse les incidents remontés en production, reproduit les anomalies et met en œuvre les correctifs nécessaires. Il développe de nouvelles fonctionnalités selon les besoins métiers, conçoit les modèles de données via l’ORM Odoo et optimise les performances des requêtes PostgreSQL. Il gère les API d’intégration avec des systèmes tiers via JSON-RPC ou XML-RPC et participe aux migrations de version ainsi qu’aux mises en production. Il veille à la sécurité applicative, à la gestion des droits d’accès et à la conformité réglementaire, garantissant ainsi la stabilité et l’intégrité du système d’information.
CDI

Offre d'emploi
Data Scientist Industriel F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Ocaml
Python

Annecy, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
INGENIEUR STOCKAGE - AMAZON S3

HEEVOX
Publiée le
Amazon S3
AWS Cloud
JSON

2 ans
45k-55k €
400-500 €
Île-de-France, France
INGENIEUR STOCKAGE - AMAZON S3 Démarrage : ASAP Durée : 2 ans Localisation : Ile de France (Proche Paris) Télétravail : 50% Objectif global : Administrer plateforme de stockage objet Profil Recherché : Maîtrise des solutions de stockage en mode objet comme Amazon S3 (et/ou Scality S3). Compréhension des concepts fondamentaux du stockage objet, y compris la gestion des métadonnées, la durabilité et la redondance. Connaissance des bibliothèques Python pour interagir avec des API de stockage (Boto3 pour AWS). Capacité à écrire des scripts pour automatiser des tâches de gestion des données Compréhension des formats de fichiers (JSON, XML, etc.) souvent utilisés dans les systèmes de stockage en mode objet. Connaissance des systèmes d'exploitation Linux et des principes de configuration des serveurs. Capacité à surveiller et à analyser les performances des systèmes de stockage et à identifier les goulots d'étranglement.
1511 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous