Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 590 résultats.
CDI

Offre d'emploi
DevOps / SysOps Senior (H/F)

Amiltone
Publiée le
DevOps

40k-45k €
Marseille, Provence-Alpes-Côte d'Azur
Intégré à nos équipes sur notre Factory ou chez nos clients, nous recherchons un DevOps / SysOps senior. Vous rejoignez le projet dès sa phase de démarrage, participez à la définition de l'architecture, puis assurez à la fois les activités de BUILD et de RUN. Votre rôle - Vous construisez les environnements Cloud - Vous automatisez les déploiements - Vous garantissez la stabilité, la supervision et l'exploitation des applications - Vous travaillez en binôme avec les équipes de production, avec un rôle de référent technique et de transmission Vos missions - Construire les environnements Cloud via Terraform (cluster OpenStack) - Automatiser les déploiements et configurations avec Ansible - Mettre en place et maintenir les pipelines CI/CD (Jenkins, GitLab, Sonar, Nexus) - Déployer et exploiter la supervision et l'observabilité (Prometheus, Grafana, Loki) - Assurer le suivi des systèmes d'exploitation Linux - Collaborer étroitement avec les équipes de développement - Accompagner et faire monter en compétence les équipes OPS Environnement technique : - Linux (système & réseau) - Cloud public ou privé - Terraform - Ansible - Jenkins - Grafana
Freelance

Mission freelance
Data Engineer (H/F)

LeHibou
Publiée le
ETL (Extract-transform-load)
PowerBI
SQL

12 mois
400-480 €
Toulouse, Occitanie
Notre client dans le secteur Aérospatial et défense recherche un/une Data Engineer (H/F) Description de la mission : Dans le cadre d'un besoin de renfort sur ses activités, notre client va rechercher un freelance expérimenté sur la partie Data. Rattaché aux équipes Data en charge de la transformation de la donnée de notre client (8 personnes), vous interviendrez en tant que Data Engineer. Ainsi, vous contribuerez aux projets actuels et futurs incluant le chargement des données le DWH : – Données de billetterie et de réservation – Données financières – Données opérationnelles Une bonne communication, autonomie, capacité d’adaptation sont attendues ainsi qu'une capacité à analyser des besoins complexes et à faciliter la coordination au sein de l’équipe ainsi qu’avec les autres parties prenantes (architecte, OPS, métier). Environnement technique : ETL : Powercenter : 20% SQL ( Teradata ) and scripting (BTEQ, shell…) : 50 % Linux : 10% Outils de reporting : SAP BI4 & PowerBI : 20%
CDI

Offre d'emploi
Ingénieur système - Secteur défense navale H/F

VIVERIS
Publiée le

40k-50k €
Toulon, Provence-Alpes-Côte d'Azur
Contexte de la mission : Viveris accompagne ses clients dans la conception et la fabrication d'équipements de haute technologie pour les secteurs de la robotique et de la défense. Dans ce cadre, nous recherchons un Ingénieur Système chargé de la conception, le développement et l'optimisation de systèmes de simulation pour des applications robotiques sous-marines. Intégré au sein de la Direction Ingénierie, vous collaborerez avec des équipes pluridisciplinaires (logiciel, mécanique, qualité, gestion de projet) et serez responsable de l'analyse des spécifications techniques fonctionnelles ainsi que de la coordination des principales étapes de développement. Responsabilités : - Concevoir et rédiger les spécifications fonctionnelles de systèmes robotiques dans un environnement naval complexe ; - Analyser les besoins fonctionnels et techniques des systèmes robotiques destinés à des applications de défense ; - Rédiger les documents techniques en français et en anglais ; - Élaborer les architectures systèmes en prenant en compte les contraintes techniques et les exigences de performance, décliner les exigences associées. - Piloter et coordonner les activités systèmes des projets robotiques ; - Assurer la coordination des échanges techniques entre les différents départements ;
Freelance

Mission freelance
AI Data engineer H/F

HAYS France
Publiée le

12 mois
500-700 €
Luxembourg
Responsabilités clés : 1. Ingénierie des données et Développement de produits IA Concevoir, construire et maintenir des pipelines de données robustes ainsi que des produits de données pour les cas d'usage en analytique et en intelligence artificielle. Développer et optimiser des architectures hybrides (sur site / cloud). Mettre en œuvre l'automatisation CI/CD, des frameworks de tests et des processus de livraison industrialisés. 2. Analytique avancée & Machine Learning Développer, déployer et superviser des modèles de machine learning (fraude, performance commerciale, AML/KYC, compréhension de documents). Réaliser des expérimentations, du prototypage et des évaluations à l'aide de métriques structurées. Traduire des articles de recherche en solutions prêtes pour la production. Assurer la supervision technique et la relecture de code pour les contributeurs juniors. 3. Ingénierie IA & LLM Construire des composants pour l'OCR, la classification de documents, l'extraction d'informations et la génération augmentée par la recherche (RAG). Concevoir des modèles de prompts, des jeux de données d'évaluation et des flux d'interaction avec les LLM. Intégrer Snowflake Cortex, Dataiku LLM Mesh et des technologies équivalentes dans les processus bancaires. 4. Architecture, Intégration & MLOps Intégrer des modèles d'IA dans les processus métiers via des API, des microservices et des couches d'orchestration. Garantir des implémentations sécurisées et de niveau production en collaboration avec les équipes d'ingénierie. Gérer le versioning, la supervision, la traçabilité et la conformité aux règles de gouvernance de l'IA. 5. Engagement des parties prenantes & Gouvernance Produire la documentation des modèles, les supports de validation et des présentations adaptées aux comités. Communiquer les résultats et les analyses aux parties prenantes techniques et non techniques. Accompagner les lignes métiers, la conformité et les fonctions de gestion des risques pour assurer une adoption sécurisée de l'IA.
Freelance

Mission freelance
Ingénieur DevOps / Intégration Cloud IAM

5COM Consulting
Publiée le
Ansible
Grafana
Keycloak

2 ans
500-650 €
La Défense, Île-de-France
En tant qu’ expert technique IAM & Cloud , vous interviendrez au cœur de la DT pour : Intégrer, configurer et maintenir en conditions opérationnelles la solution Keycloak Garantir la sécurité , la performance et la fiabilité des services Accompagner les équipes projets dans la livraison de leurs applications cloud Contribuer activement à l’amélioration continue et aux pratiques DevSecOps Vous jouerez un rôle clé dans la sécurisation des applications, la qualité des livraisons et la cohérence des architectures techniques. 🛠️ Responsabilités principales Administration et intégration de Keycloak Support technique aux équipes projets lors des déploiements Mise en œuvre des solutions techniques de la DT : Keycloak, Grafana, Prometheus, PostgreSQL, HAProxy Intégration et configuration dans les environnements de test et production Préparation et suivi des mises en production Conception de scénarios de tests et de plans de montée en charge Contribution aux cérémonies Agile, comités projets et ateliers techniques Rédaction et maintien de la documentation technique Promotion des bonnes pratiques IAM au sein des équipes 📈 Résultats attendus Mise en œuvre efficace des besoins IAM des projets Amélioration continue de la plateforme IAM Résolution proactive des incidents et anomalies Fiabilité des livraisons et maintien en conditions opérationnelles Production d’une documentation technique de qualité 🧪 Indicateurs de performance Respect des jalons projet et des sprints Taux de réussite des tests d’intégration et de sécurité Qualité des propositions techniques Couverture d’observabilité : métriques, logs, traces
CDI

Offre d'emploi
Data Engineer Databricks

KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks

45k-60k €
Paris, France
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Freelance

Mission freelance
Data Engineer IA & API (GCP & AWS)

Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
Docker

6 mois
460-580 €
Courbevoie, Île-de-France
Nous recherchons, pour le compte de notre client dans le secteur de l’énergie , un(e) Data Engineer Cloud afin de renforcer ses équipes data et accompagner des projets stratégiques à forte valeur ajoutée. Compétences clés indispensables Excellente maîtrise de Python Solide expérience sur AWS , notamment Redshift Mise en place et orchestration de pipelines data avec Apache Airflow Infrastructure as Code avec Terraform Développement d’API avec FastAPI Conteneurisation avec Docker Très bonne maîtrise du SQL et de la modélisation de données Atouts majeurs Expérience sur Google Cloud Platform (GCP) Connaissances ou intérêt fort pour l’ IA Agentic (agents autonomes, workflows intelligents, LLMs) Sensibilité DataOps / MLOps Expérience sur des architectures data modernes Profil attendu Formation Bac+5 (école d’ingénieur, université ou équivalent) 3 à 6 ans d’expérience en Data Engineering (adaptable) Autonome, rigoureux(se) et orienté(e) solutions Bon relationnel et esprit d’équipe Curiosité technologique et goût pour l’innovation 📍 Localisation : Courbevoie
Freelance

Mission freelance
DevOps Cloud AWS - kubernetes / SRE

Cherry Pick
Publiée le
AWS Cloud
Github
Gitlab

12 mois
500-520 €
Paris, France
Au sein d'une équipe technique en pleine croissance, vous intervenez pour reprendre le flambeau suite à un départ interne. Notre client recherche un profil confirmé dynamique, motivé et rigoureux , capable de s'approprier rapidement un existant pour le faire évoluer. Vos missions sont équilibrées entre le Build (construction de nouvelles infrastructures) et le Run (maintien en condition opérationnelle et optimisation). Vos Missions Infrastructure as Code : Concevoir et déployer les infrastructures cloud via Terraform . Orchestration : Gérer et optimiser les clusters Kubernetes en environnement de production (déploiement, scaling, monitoring). Cloud Management : Build, Administrer et sécuriser les services sur l'environnement AWS . CI/CD : Améliorer les pipelines de déploiement pour fluidifier le travail des développeurs. (Github actions) Fiabilité (SRE) : Assurer la haute disponibilité des services et intervenir sur la résolution d'incidents (Run).
Freelance
CDI

Offre d'emploi
Data Engineer Big Data

KLETA
Publiée le
Apache Kafka
ELK
Hadoop

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Big Data pour concevoir et industrialiser des plateformes de traitement de données à grande échelle. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, optimisation des traitements distribués, passage vers des architectures plus scalables et temps réel) et guiderez leur mise en œuvre avec Spark, Kafka et les écosystèmes Big Data. Vous serez responsable de la refactorisation et de l’optimisation des pipelines de données, de l’amélioration des performances et de l’intégration de mécanismes de fiabilité et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour adapter les traitements aux pipelines CI/CD et aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering et d’industrialisation. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions pérennes.
CDI

Offre d'emploi
Analyste BI H/F

FED SAS
Publiée le

45k-52k €
Lyon, Auvergne-Rhône-Alpes
Fed IT, cabinet de recrutement dédié aux fonctions informatiques, recrute pour son client, société de négoce industriel à dimension internationale, un(e) Analyste BI H/F, pour renforcer son équipe. Au sein d'une équipe IT complète (infrastructure, projet, BI), vous êtes rattaché(e) au manager BI (équipe de 8 personnes). Ainsi, vous : -Travaillez en liens avec la BI back qui réalise l'extraction des données, -Intervenez sur la partie front et fonctionnelle de la data, -Êtes en charge de la restitution des données aux utilisateurs, -Recueillez les besoins auprès de vos clients internes, en France et à l'international (responsables production, achat, vente, livraison, stock...), -Réalisez les tableaux de bord Power BI afin de fournir des reportings en adéquation avec les besoins, -Assurez la qualité, la cohérence et la sécurité des données, -Intégrez et modélisez des sources de données multiples, -Formez les utilisateurs sur site ou à distance, -Produisez des supports de formation (documentation technique et vidéo), -Assurez une veille technologique sur les outils BI, -Résolvez les problèmes techniques liés à Power BI, -Fédérez les utilisateurs autour de la restitution de la data, -Organisez le delivery sur votre périmètre, Rémunération : 45 à 52 K€ bruts/an (fixe selon expérience) + 2 jours de télétravail/semaine + 6 jours de RTT/an. Environnement technique : Microsoft, cloud azure, MS Fabric. Déplacements à prévoir en France et en Europe : 1 à 3 nuits tous les 2 ou 3 mois en moyenne.
CDI
Freelance

Offre d'emploi
Ingénieur DevOps

CGI
Publiée le
Ansible
Gitlab
Terraform

1 an
Lyon, Auvergne-Rhône-Alpes
📍 Localisation : Lyon 📅 Démarrage : ASAP (au plus tôt) ⏳ Durée : 1 an renouvelable 🎯 Type : CDI ou Freelance ( Portage salarial uniquement) 🏢 Client final : Grand acteur du secteur de l’énergie Nous recherchons un Ingénieur DevOps confirmé pour intervenir auprès d’un grand acteur du secteur de l’énergie, au sein d’une équipe dynamique et techniquement exigeante. Cet environnement vous permettra de travailler sur des projets stratégiques, d’apporter une réelle valeur ajoutée et d’influencer les choix techniques tout en bénéficiant d’un cadre structuré, agile et orienté innovation. Profil DevOps confirmé : Amélioration continue de l’infrastructure Maintenance et évolution des jobs Jenkins et des pipelines CI/CD Livraison en recette et production Optimisation des métriques applicatives et des dashboards (Grafana) Exécution et amélioration des scénarios de performance Maintenance et évolution de l’infrastructure as code Communication avec les équipes de développement et d’exploitation Rédaction et mise à jour des documentations techniques Mise en œuvre des méthodes de modélisation des données et traitements Prise de recul et propositions d’amélioration continue Compétences attendues Impératifs : Terraform, GitLab, Ansible Connaissance Kubernetes (fort atout) Capacité à prendre du recul et proposer des améliorations Connaissance en architecture distribuée, clusters Maîtrise TLS, Infrastructure as Code, réseau, OS, conteneurisation, administration VM Monitoring et métriques applicatives Connaissance des outils de test et du domaine fonctionnel Environnement technique global : Terraform, Kubernetes, Ansible, GitLab CI, Kafka, Jenkins, Linux, Grafana Nous avons des demandes constantes sur des profils DevOps, généralement axés autour du même socle technologique (Terraform, Kubernetes, Ansible, GitLab CI, Jenkins…). Si vous ne maîtrisez pas encore l’ensemble de ces technologies, nous vous encourageons tout de même à postuler . Nous partagerons davantage d’informations lors des prochaines étapes, et nous restons ouverts à des candidats motivés, solides techniquement et capables de monter en compétence rapidement.
Freelance

Mission freelance
DataOps Engineer

AGH CONSULTING
Publiée le
CI/CD
DBT
ETL (Extract-transform-load)

6 mois
300-420 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un(e) Ingénieur DataOps afin d'apporter une expertise technique sur la mise en place et l'évolution de la stack data. A cet titre, vos principales missions seront les suivantes : - Faire évoluer les process, outils, codes et plateformes permettant de répondre aux mieux aux besoins - Proposer des architectures DATA en mettant en œuvre les principes de l’Agilité, d'intégration et de déploiement continu, en anticipant les besoin de scalabilité, - Contribuer à la réduction des coûts dans une démarche FinOps, - Former les data engineers aux outils de notre stack data, - Mise à dispo d'outillage d'aide aux développement, monitoring… , - Faire une veille technologique autour des architectures data, - Encadrer l’industrialisation du déploiement des applications en utilisant les bonnes pratiques de la CI/CD
Freelance
CDI
CDD

Offre d'emploi
Ingénieur DevOps/Middleware

bdevit
Publiée le
Ansible
Apache
CI/CD

36 mois
Île-de-France, France
Contexte & Mission : Au sein du Cluster Banques de Proximité, vous assurez le bon fonctionnement des applications et des systèmes d’information, de la mise en place à l’exploitation quotidienne (Build & Run). Vous collaborez étroitement avec les équipes de développement pour garantir la continuité du service et optimiser les opérations en production. Votre expertise en middleware WebSphere est essentielle pour assurer la stabilité et la performance des applications critiques. Missions Principales : - Supervision et gestion des incidents : Assurer la disponibilité des applications, analyser et résoudre les incidents techniques, notamment sur WebSphere et autres serveurs applicatifs. - Administration Middleware : Optimiser, configurer et surveiller les performances des environnements WebSphere, Tomcat, JBoss et Apache . - Collaboration avec les développeurs : Participer aux rituels Agile, documenter les processus et intégrer les exigences d’exploitation dans les développements. - Mise en production et suivi des évolutions : Piloter les mises en production, évaluer les impacts des changements et garantir le respect des SLA. - Optimisation et Automatisation : Définir des indicateurs de performance, proposer des améliorations et contribuer aux initiatives RSE et FinOps. - Qualités : Rigueur, autonomie, réactivité, esprit d’analyse et excellent relationnel. - Outils collaboratifs : Teams, ServiceNow, Pack Office. Ce poste vous permettra d’évoluer dans un environnement exigeant où votre expertise WebSphere et middleware sera un atout clé pour garantir la performance et la fiabilité des systèmes IT.
Freelance

Mission freelance
Spécialiste IAM/PAM

Gentis Recruitment SAS
Publiée le
Azure Active Directory
cyberark
Gestion des accès privilégiés (PAM)

6 mois
Luxembourg
Le consultant idéal dispose des compétences suivantes : Expérience en administration des identités et des accès (IAM), y compris la gestion des comptes à privilèges (PAM). Forte capacité d’ analyse et de conception des droits d’accès , notamment à travers des modèles RBAC . Maîtrise des environnements Active Directory et Entra ID (Azure AD) indispensable. Des connaissances en Lotus Notes et RACF constituent un avantage. Une expérience avec One Identity Manager est appréciée. La connaissance de solutions PAM telles que CyberArk est un plus. Des notions liées à la PKI et à la gestion des certificats sont également valorisées. La langue française est requise ; la pratique du luxembourgeois, de l’allemand ou de l’anglais représente un atout supplémentaire. Capacité à s’intégrer aisément dans une équipe d’environ 20 personnes . Missions principales Le consultant interviendra notamment sur : La gestion opérationnelle des identités et des accès (processus joiner / mover / leaver). L’administration des comptes et accès à privilèges (PAM). L’accompagnement des équipes projets lors de la mise en œuvre des accès pour de nouvelles applications . Cadre de la mission Durée : mission initiale de 6 mois, avec possibilité de prolongation. Organisation du travail : présence sur site privilégiée ; télétravail possible jusqu’à 2 jours par semaine selon la réglementation fiscale en vigueur et le niveau d’autonomie. Environnement : intégration dans une équipe déjà en place, sous la supervision d’un coordinateur interne. Interactions : échanges réguliers avec les utilisateurs finaux.
Freelance
CDI

Offre d'emploi
Testeur de performance (H/F)

OBJECTWARE
Publiée le
Gitlab
Terraform

1 an
45k-55k €
400-480 €
Nantes, Pays de la Loire
Description Les activités et missions sont orientées sur du build et du run Concernant le build : vous serez impliqué(e) dans le développement de la CI/CD et de l'infra as code, en apportant votre expertise pour orienter les choix de solutions sur le périmètre tests de charge et perf. Vous participez également à la création des scripts nécessaires pour les campagnes de test de charge (gatling scala) et de perf (K6) et vous êtes force de proposition concernant des solutions visant à automatiser et simplifier ces campagnes. De plus, vous accompagnerez les équipes de delivery en les aidant à améliorer leur opérabilité, notamment en termes de résilience, d'observabilité et de performance. Concernant le run : où vous serez chargé(e) d'assurer les déploiements et de fournir les outils nécessaires à l'équipe pour réaliser ces opérations principalement sur le hors prod. Vous participez à la mise en place d'actions d'amélioration continue, ainsi que dans le lancement et l'analyse des tests de charge. Enfin, vous contribuerez à l'analyse et à l'optimisation des applications pour garantir leur efficacité et leurs performances.
Freelance
CDI

Offre d'emploi
Tech Lead IAM - Data - Chiffrement (H/F)

5COM Consulting
Publiée le
Grafana
Keycloak
Red Hat

3 ans
Paris, France
Nous recherchons un(e) Tech Lead expérimenté(e) pour piloter la conception et l'évolution des solutions IAM, Data et Chiffrement au sein d'une équipe Engineering Platform. Vous serez le garant de la qualité, de la sécurité et de la conformité des solutions délivrées, tout en accompagnant la transformation technique et organisationnelle. Vos missions principales Management & Organisation Encadrer et faire monter en compétences les équipes (collaborateurs internes et prestataires) Définir la roadmap technique et prioriser les initiatives stratégiques Animer les rituels Agile (Scrum/Kanban) et participer aux comités de pilotage Assurer la coordination transverse avec les équipes projets, production et sécurité Promouvoir les bonnes pratiques DevSecOps et la culture d'amélioration continue Expertise Technique Maîtriser les protocoles d'authentification : SAML v2, OpenID Connect, OAuth2, WebAuthn, FIDO2 Concevoir et superviser l'intégration de solutions IAM dans des environnements Cloud (AWS, Azure, GCP) Définir les standards de chiffrement et de gestion des clés/certificats Orienter les développements en Java/Spring Boot/JEE selon les principes Clean Code Superviser l'optimisation des bases PostgreSQL et garantir la haute disponibilité (PCA/PRA) Contrôler la conformité des pipelines CI/CD (GitHub Actions, Jenkins) Mettre en place l'observabilité (Grafana, Prometheus, Loki)
1590 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous