Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 280 résultats.
Freelance
CDI

Offre d'emploi
Ingénieur de production

Publiée le
Linux

1 an
Nanterre, Île-de-France
Télétravail partiel
Nous recherchons un ingénieur de production pour notre client grand compte basé à la Paris. 🎯 Objectifs de la mission : Intégration et paramétrage de solutions logicielles Suivi des mises en production, gestion des incidents et changements Contrôle de la qualité des livrables Installation et configuration des modules applicatifs Réalisation des tests (unitaires, d’intégration…) Collaboration étroite avec les Référents Techniques (RT) Reporting et participation à la veille technologique 💻 Environnement technique : Les compétences suivantes sont requises (niveau ≥ 3 sauf mention contraire) : Systèmes : Unix, Linux, Windows Langages : Shell, Python, Java, SQL CI/CD : Jenkins, GitLab, GitHub Supervision : Zabbix, Instana Ordonnanceur : VTOM Conteneurisation : Docker, Kubernetes Outils DevOps : Ansible, Terraform, Puppet, Airflow Base de données : Redis, PostgreSQL, MongoDB, MS SQL Messagerie : Kafka, RabbitMQ, IBM MQ Orchestration / Workflows / Logs : HAProxy, NGINX, LOKI, Elasticsearch, Prometheus, Grafana, Kibana
Freelance
CDI

Offre d'emploi
Développeur Cloud-natif / Cloud monitoring (Sysdig)/ Cloud Log Management (Logdna)

Publiée le
Ansible
Python

1 an
40k-45k €
330-530 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Au sein d'une filiale d'un grand groupe bancaire, l'équipe Monitoring Infrastructure gère des infrastructures transverses de supervision dans un environnement distribué et international d'environ 42 000 serveurs. L'équipe administre des infrastructures utilisant les technologies : Sysdig (Cloud Monitoring) LogDNA (Cloud Log Management) Dynatrace Alerting CA UIM / DX IM (monitoring système) IBM ITM (monitoring système) La mission porte sur le développement des services autour des solutions Cloud que sont Sysdig (Cloud Monitoring) et IBM Cloud logs (Cloud Log Management) Nous participons aux projets d'évolution de ces plateformes, tant sur les versions utilisées que sur les fonctionnalités développées et mises en œuvre. Ces plateformes s'inscrivent dans un environnement plus complet d'outillages qui sont au cœur du service de pilotage. Responsabilités Automatisation des actions DevOps Participer activement aux projets d'implémentions de nouveaux produits / fonctionnalités Assurer le suivi et l'évolution des différentes infrastructures Garantir un parc fonctionnel pour l'ensemble de nos clients Proposer et réaliser des actions concrètes d'industrialisation / automatisation Rédiger les documentations associées
CDI
Freelance

Offre d'emploi
DevOps Confirmé

Publiée le
DevOps
Docker

6 mois
45k-50k €
350-500 €
Meudon, Île-de-France
Contexte de la mission Le DevOps confirmé contribue à l’intégration et au déploiement des briques techniques et logicielles, sous la supervision de l’Expert DevOps. Missions principales • Développer et maintenir les scripts d’automatisation (Ansible, Bash, Python). • Intégrer et configurer les briques infra (réseau, firewall, Proxmox, KVM). • Déployer les logiciels applicatifs (Docker, Swarm, LDAP, PostgreSQL). • Contribuer à la mise en place et au suivi des pipelines CI/CD (Jenkins). • Participer aux corrections des faits techniques et à la maintenance du socle. • Contribuer aux documentations techniques et aux retours d’expérience. Compétences techniques requises Bonnes connaissances : Docker, Swarm, Proxmox, Ansible, Jenkins, PostgreSQL, HAProxy. Compréhension des mécanismes d’automatisation infra et software. Connaissance du durcissement sécurité. Gestion de configuration et intégration continue.
CDI
Freelance

Offre d'emploi
Data engineer GCP / Hadoop - DataOps

Publiée le
Apache Spark
BigQuery
Google Cloud Platform (GCP)

1 an
40k-50k €
300-480 €
Paris, France
Télétravail partiel
Au sein du département IT, l'équipe a pour vocation de fournir aux services Technologies & Opérations et Banque de Proximité et Assurance, l’ensemble des applications nécessaires à leur fonctionnement. L'appel d'offre vise à renforcer notre binôme de data engineers, en priorité sur le projet DatOps que nous opérons pour le compte de la Direction des Opérations. Celui-ci s'appuie sur la plateforme GCP, et représentera l'activité majeure du consultant. En mineure, il interviendra en parallèle sur un second projet, qui vise à le doter d'une plateforme data basé sur le Hadoop on premise du groupe. Nous recherchons un profil data engineer GCP + Hadoop qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les demandes métier sur le projet DatOps. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. Les tâches suivantes seront confiés au consultant : Mettre en œuvre de nouvelles ingestions de données, data prep/transformation Maintenir et faire évoluer nos outils de gestion des pipeline de données Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme
Freelance

Mission freelance
IT ENGINEERING MANAGER

Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud

12 mois
580-600 €
Île-de-France, France
Télétravail partiel
Engineering Manager / Head of Engineering / Lead Technique expérimenté , capable d’apporter structure, cohérence et excellence technique dans un contexte digital multi-équipes (squads internes et prestataires). Le profil doit allier expertise technique solide , leadership naturel et vision d’ingénierie moderne orientée qualité et productivité. Expérience et parcours 8 à 12 ans d’expérience dans le développement ou l’architecture logicielle, dont au moins 3 ans en management technique ou en direction d’équipes de delivery . Expérience confirmée dans un environnement web / digital à fort trafic ou produit SaaS. Habitude de travailler dans un modèle d’équipes agiles multi-squads (internes + externes). Solide expérience dans la mise en place de standards techniques , d’ outils CI/CD , et dans la structuration d’organisations d’ingénierie . Compétences techniques clés Langages & frameworks : TypeScript, Node.js, React (niveau expert) ; Python apprécié. Architecture logicielle : Clean / Hexagonale / modulaire ; maîtrise des Design Patterns. CI/CD & DevOps : GitHub Actions, AWS CodePipeline, infrastructure AWS (EC2, Lambda, S3, CloudFront…). Outils : GitHub, Jira, Confluence, Google Workspace. Connaissance approfondie de l’ intégration continue , du testing (unitaires, intégration, E2E), et des bonnes pratiques d’ingénierie logicielle .
Freelance

Mission freelance
DevOps (Terraform, Cloud, K8S) - H/F

Publiée le
Kubernetes

1 an
400-650 €
Nantes, Pays de la Loire
Télétravail partiel
🎯 Contexte & Missions Vous rejoindrez l’ équipe Plateforme Cloud en charge du Build et du Run , dans un environnement multi-compétences où chacun intervient sur l’ensemble des sujets, épaulé par des spécialistes. Votre rôle sera d’assurer : La conception, le déploiement et l’exploitation d’environnements Cloud Public (GCP principalement, mais également AWS / Azure) La participation aux projets de migration et de déploiement des plateformes legacy L’automatisation des processus via Terraform et Python La contribution aux activités de sécurisation (IAM GCP, Vault) et à l’optimisation continue de la plateforme Les activités de Run et la gestion d’astreintes tournantes
Freelance

Mission freelance
Expert Sauvegarde Commvault

Publiée le
Ansible
Gitlab
NetBackup

6 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Un équipier SAUVEGARDE N3 a pour mission de maintenir le système de sauvegarde des datacenters. Il maitrise les technologies de sauvegarde Commvault, les architectures de sauvegarde, les sauvegardes sur bande et connait la technologie NetbackUp. Enfin, en optionnel, il connait les technologies DevOps afin de mettre en place de l'automatisation sur les infrastructures Sauvegarde. Les technologies utilisées sont Ansible, Python, Git/GitLab, RestAPI, en option Terraform et Go. Les données de sauvegarde sont mises à disposition les sur le portail infra, ainsi que différents indicateurs techniques. L'ambition est d'offrir un service automatisé de gestion de la sauvegarde. Les environnements de production et pré-production sont sauvegardés pour une période de rétention de 28 jours, et les données de production dupliquées sur un 2e Datacenter sur une période de 14 jours, puis externalisées sur bandes pour celles qui le nécessitent. Le volume de sauvegarde est d’environ 1Po pour environ 200 applications concernées
Freelance

Mission freelance
Data Engineer confirmé Maintenance et Inspection pour la Digital Line

Publiée le
Java
Python
Scala

6 mois
320-370 €
Pau, Nouvelle-Aquitaine
Télétravail partiel
Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un "Data Engineer confirmé Maintenance et Inspection pour la Digital Line". Objectifs et livrables : Conception, développement et maintenance de pipeline de données évolutifs sur la plateforme Data Fabric, incluant ingestion et optimisation des performances et de l'usage de la donnée Garantir la qualité, sécurité et intégrité des données tout au long des pipelines Collaboration transversale avec les équipes Data Science, BI, Devops Réalisation d'audits techniques et proposition d'améliorations continues
Freelance

Mission freelance
Un Data Scientist (Développement,Implémentation Algorithmes IA,Intégration Solutions IA) sur Nantes

Publiée le
Machine Learning
Python
Pytorch

11 mois
140-380 €
Nantes, Pays de la Loire
Télétravail partiel
Smarteo recherche pour un de ses clients, Un Data Scientist ( Développement, Implémentation d'Algorithmes IA, Intégration Solutions IA ) sur Nantes Description: Nous client nous soumet une prestation de Data Scientist pour intervenir sur les domaines analyse de données, modélisation,Ia Gen prompting et ingénierie data. Au sein d'une équipe agile composée d'une douzaine de personnes le candidat contribuera à la conception et la réalisation de solutions IA. Activités : - Développement et Implémentation d'Algorithmes IA: Concevoir, développer et déployer des modèles de machine learning et d'intelligence artificielle. - Analyse de Données: Explorer et analyser les données pertinentes pour extraire des insights exploitables et améliorer les algorithmes existants. - Intégration des Solutions IA: Collaborer avec les équipes produits pour intégrer les solutions IA dans leurs produits et répondre à leurs besoins spécifiques. - Maintenance des Solutions en Production: Assurer le suivi et l'amélioration continue des solutions IA en production (RUN), incluant la gestion des incidents et la mise à jour des modèles. - Prototypageet Testing: Réaliser des prototypes de nouvelles solutions IA et conduire des tests pour valider leur utilité et leur performance. - Prompting: Réaliser des prompts robustes pour les différents cas d'usage Le candidat devra disposer des compétences adéquates pour réaliser les tâches en autonomie ce qui requiert une expérience Compétences Requises : - Analyse de Données: Expertise en techniques d?analyse et de visualisation de données. - Modélisation et Machine Learning: Compréhension avancée des algorithmes de machine learning et d'intelligence artificielle. - Prompting: Compétence dans la génération et l'optimisation de prompts pour améliorer l'interaction utilisateur et la pertinence des résultats. - Ingénierie Data: Connaissances en gestion de bases de données et manipulation de données en grande quantité. - Langages de Programmation: Maîtrise des langages comme Python, SQL, et des outils comme TensorFlow, PyTorch. - DevOps: Compréhension des pratiques DevOps, incluant l'intégration et la déploiement continu (CI/CD). Machine Learning Operations (ML Ops), Google TensorFlow, Python, SQL, PyTorch,
Freelance

Mission freelance
AI / Analytics Software Engineer (h/f)

Publiée le

1 mois
570-600 €
75017, Paris, Île-de-France
Télétravail partiel
Résumé : Nous recherchons un « AI / Analytics Software Engineer » pour concevoir, développer et déployer des solutions logicielles autour de l’AI et de la GenAI. Le candidat idéal aura une solide expérience en développement logiciel avec le langage Python, en Machine Learning et en DevOps. Responsabilités : Concevoir, développer et maintenir des applications logicielles Python orientées machine Learning et IA. Industrialiser et mettre à l'échelle les solutions autour de l’IA. Rédiger un code propre, maintenable et efficace pour diverses applications logicielles. Mettre en œuvre les meilleures pratiques en matière de développement logiciel et de machine Learning. Développer des API et des services pour l'exposition des services autour de l’IA. Utiliser des technologies de conteneurisation telles que Docker pour le déploiement et la gestion des applications. Participer à la mise en œuvre des pratiques DevOps pour assurer la fiabilité, la scalabilité et la sécurité des systèmes. Travailler en étroite collaboration avec les « Data Scientists » lors de la conception et la réalisation des modèles. Compétences : Diplôme d’ingénieur ou master en informatique. Minimum 5 ans d’expérience. Forte expérience en développement logiciel avec Python. Expérience en DevOps. Expérience en Machine Learning. Forte maîtrise des Frameworks de développement web tels que Flask et FastAPI. Solides compétences en bases de données SQL et NoSQL. Connaissance des bases de données vectorielles. Anglais courant. Autres Détails : Localisation: Paris 17 - 2 jours TT/semaine
Freelance

Mission freelance
Technicien Support - Administrateur système - NS

Publiée le
Shell

18 mois
100-250 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 3 ans et plus Métiers Fonctions : Production, Exploitation, Infrastructure, Administrateur système Spécialités technologiques : VMS, Virtualisation, Secteurs d'activités Administration Publique Nous recherchons un profil Administrateur système pour notre client afin de renforcer ses équipes. MISSIONS Missions principales exercées : - Administration Linux exclusivement (run, build de VMs) - Déploiement automatisé (Puppet, Cobbler, Ansible) : action sur Ansible, pas sur les autres outils, dont les paquets sont fournis, ainsi que le mode d’installation. - Virtualisation : vSphere + vCenter de VMware, Openstack (plateforme cloud OpenSource interministérielle sous gestion ). - MCO de la plateforme assurée par l'intervenant. - Échanges réguliers avec les développeurs et équipes DevOps Environ 50 à 70 % du travail consiste à exécuter des instructions et commandes sur les serveurs dans le cadre d’opérations en production. Le reste de l’activité porte sur : - l’utilisation de Puppet et Cobbler pour le déploiement et l’installation des serveurs, - la gestion du stockage sur les baies, - la création de scripts (Bash, Shell, Python, Ansible) pour l’automatisation des tâches, - et la nécessité de disposer de notions en virtualisation. Expertise souhaitée 3 ans comme ingénieur système
CDI

Offre d'emploi
Data engineer appétence machine learning (H/F)

Publiée le

40k-45k €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez sur un projet en tant que Data engineer. Dans le cadre d'un projet de transformation Data ambitieux, nous recherchons un Ingénieur Data pour concevoir et structurer l'architecture d'un Data Warehouse et poser les bases des futurs projets d'intelligence artificielle. Vous interviendrez sur l'ensemble de la chaîne de valeur de la donnée : collecte, structuration, gouvernance, qualité et préparation aux usages prédictifs. Vos missions : 1. Architecture & Infrastructure Data Définir et mettre en œuvre l'architecture du Data Warehouse (on-premise). Concevoir et automatiser les pipelines ETL/ELT à partir des systèmes existants (ERP, TMS, WMS…). Garantir la qualité, la traçabilité et la sécurité des données. Participer à la mise en place d'un catalogue de données pour améliorer la gouvernance. 2. Préparation et Structuration pour l'IA Concevoir des modèles de données adaptés aux futurs cas d'usage IA et prédictifs. Structurer et enrichir les datasets nécessaires aux analyses (prévision ETA, détection d'anomalies…). Collaborer avec les équipes de développement ERP pour intégrer les flux métiers. 3. Collaboration & Culture Data Travailler en étroite collaboration avec les équipes IT, métiers, développement logiciel et direction. Sensibiliser les équipes à la culture data-driven et à l'utilisation des outils analytiques. Être un moteur dans la diffusion des bonnes pratiques Data au sein de l'entreprise. 4. Développement Machine Learning (à moyen terme) Participer à la création de premiers modèles de Machine Learning en lien avec les métiers. Contribuer à leur industrialisation (API, conteneurisation, intégration à l'ERP). Compétences : Excellente maîtrise de Python et SQL. Solide expérience en construction de pipelines de données (ETL/ELT). Connaissance d'un ou plusieurs outils d'orchestration : Airflow, dbt, Talend… Bonnes bases en bases de données relationnelles et cloud : Snowflake, BigQuery, Synapse, PostgreSQL… Compréhension des principes du Machine Learning (pandas, scikit-learn). À l'aise dans un environnement DevOps (Git, CI/CD, Docker, APIs REST).
Freelance

Mission freelance
Support engineer

Publiée le
Administration réseaux
Administration système
Administration Windows

3 mois
Lille, Hauts-de-France
Télétravail partiel
Cadre général : Gérer les incidents d’exploitation et assurer la maintenance (supervision traitement, système, réseau, sauvegardes) sur la plage horaire 5h-13h, 13h-21h du lundi au vendredi et 5h-13h le samedi + astreinte hebdomadaire (Soir et We) Assurer la disponibilité et la sécurité de l’exploitation Gestion des incidents de niveau 1 et 2 Mise en production et déploiement d’applications, gestion utilisateurs (AD, gmail), création serveur nouveau magasin Suivre les applications et les flux applicatifs conformément aux attentes Détecter les incidents et mettre en œuvre une résolution de premier niveau ou escalader conformément aux procédures définies Participer à l’amélioration continue / l’automatisation dans le périmètre de l’exploitation. Résultat attendu : Disponibilité de l’exploitation dans son ensemble. Supervision des infrastructures informatiques et du patrimoine applicatif Assurer la surveillance de l'ensemble des ressources informatiques pour les maintenir en conditions opérationnelles. Esprit d’analyse, amélioration continue Elaborer et mettre à jour la documentation technique. Compétences : Support Engineer (Analyste/technicien d’exploitation) : Confirmé Ordonnancement (OPcon xps) – automatisation – scripting (Python / Bash / Powershell / ...) : Confirmé Ivanti (Landesk) : Confirmé Digital Factory : Pratique DevOps, Cloud Publique, Gitlab, Les APIs (JSON, CURL, …), Les containers (DOCKER, KUBERNETES), Puppet / Foreman : Confirmé/connaissances
Freelance

Mission freelance
DataOps - MS FABRIC/ Azure

Publiée le
.NET
.NET Framework
AWS Cloud

12 mois
500-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer AWS - Expertise sur MS Fabric Engineer pour rejoindre une squad Data Platform dynamique. Vous travaillerez avec des Data Engineers et DevOps pour concevoir, maintenir et optimiser une plateforme de données cloud , incluant la gestion de Data Lake, le développement de microservices et l’automatisation des déploiements. Missions Développer et gérer des solutions de Data Lake (ADLS Gen2, AWS S3). Concevoir et maintenir des processus de déploiement automatisé avec Terraform. Développer des microservices en Python (C# un plus). Assurer le monitoring et l’exploitation de la plateforme. Participer aux flux ETL et à l’amélioration continue de la plateforme. Collaborer avec les parties prenantes pour proposer des solutions robustes et évolutives. Maintenir la documentation technique et les artefacts de production. Être force de proposition sur les bonnes pratiques SRE, sécurité, qualité et FinOps . Profil recherché Expérience significative en Data Platform et Data Lake (AWS S3, ADLS Gen2). Maîtrise du développement Python (C# un plus) et des environnements cloud (AWS requis, Azure un plus). Compétences en Terraform et automatisation de déploiements. Connaissance des pipelines ETL , du monitoring et des bonnes pratiques SRE . Méthodologie Agile , orientation user-centric et forte capacité de collaboration. Autonomie, rigueur et esprit proactif . Pourquoi nous rejoindre ? Travailler sur des projets innovants autour de la data et du cloud . Collaborer avec des experts techniques dans un environnement Agile. Contribuer à l’ optimisation et l’évolution d’une plateforme moderne et scalable.
Freelance
CDI

Offre d'emploi
Cloud Migration Partner

Publiée le
Amazon S3
Ansible
Bash

5 mois
Île-de-France, France
Télétravail partiel
Objectif de la mission Dans le cadre d’un programme de transformation vers le cloud de confiance, le Cloud Migration Partner jouera un rôle clé dans la définition de stratégies de migration, l’analyse des applications existantes, et la conception des architectures cibles cloud-native. L’objectif est de faciliter l’adoption du cloud en intégrant les meilleures pratiques DevOps, CI/CD et de modernisation logicielle. Responsabilités principales Réaliser des audits techniques des applications existantes (code source, infrastructure, flux de données, stockage, dépendances). Lire et analyser du code fullstack (Java, Python, JavaScript, SQL…) afin d’identifier les patterns techniques et les difficultés de migration. Identifier les obstacles potentiels et proposer des stratégies de migration adaptées (6Rs : Rehost, Refactor, Replatform, etc.). Co-concevoir les architectures cibles sur GCP/S3NS en collaboration avec les équipes produit, infrastructure et sécurité. Intégrer les bonnes pratiques CI/CD dans les recommandations de migration (Git, pipelines, tests automatisés). Produire une documentation claire et structurée (évaluations techniques, roadmaps de migration, architectures cibles). Accompagner et former les équipes IT à l’adoption des outils et pratiques cloud-native.
Freelance

Mission freelance
Devops VITROLLES  Kafka connect - Avancé, AWS - Expert, AWS S3 - Avancé, Gitlab CI/CD - Expert

Publiée le
Apache Kafka
AWS Cloud
DevOps

6 mois
400-420 €
Vitrolles, Provence-Alpes-Côte d'Azur
Télétravail partiel
Devops VITROLLES Kafka connect - Avancé, AWS - Expert, AWS S3 - Avancé, Gitlab CI/CD - Expert, Certificat SSL - Avancé, Helm Charts - Avancé, Programmation Python - Avancé Objectifs et livrables L’expertise technique Devops cloud public/privé sur le Datalake (plateforme Big Data) consistera à : • Designer des modèles de CI et CD stratégiques pour permettre des déploiements sur tous les environnements (dev, int, preprod et prod) • Développer les pipelines gitlab de CI et CD pour assurer le build, déploiement et configuration des composants du datalake sur le cloud public AWS et du datalake sur cloud privé • Documenter les modes opératoires associées à ces pipelines • Accompagner et assurer un support niveau 2 aux ROA lors des déploiements sur les différents environnements • Contribuer à l’amélioration continue des outils de déploiement • Communication auprès des utilisateurs finaux Compétences demandées Devops VITROLLES Kafka connect - Avancé AWS - Expert AWS S3 - Avancé Gitlab CI/CD - Expert Certificat SSL - Avancé Helm Charts - Avancé Programmation Python - Avancé
280 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous