Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 774 résultats.
CDI

Offre d'emploi
Data Scientist H/F

FED SAS
Publiée le

42k-52k €
Apprieu, Auvergne-Rhône-Alpes
Fed IT, cabinet de recrutement dédié aux fonctions informatiques, recrute pour son client, cabinet de maîtrise d'œuvre et économie de la construction, un(e) Data Scientist H/F, pour accompagner sa croissance. Au sein d'une société de 60 personnes, vous arrivez en création de poste et rejoignez la "transformation digitale" (data et infrastructure). Rattaché(e) au directeur de l'équipe, vous : -Intervenez sur l'ensemble de la data du cabinet (maquettes 3D, mémoires techniques, cycle de vie des produits...), -Structurez et exploitez les données issues des différents métiers de l'entreprise, -Recueillez les besoins des utilisateurs et les traduisez en spécifications techniques, -Réalisez les extractions, transformations et intégrations des données (SQL, et via des ETL et API), -Mettez à disposition les KPI et autres outils d'aide à la décision (Power BI), -Développez des outils complémentaires via Python, -Proposez des méthodes d'automatisation de mise à disposition, stockage et échange de données, -Êtes partie prenante dans le choix des outils data et maintenez l'existant, Rémunération : 42 à 50 K€ bruts/an (fixe selon expérience) + 1 à 3 K€/an (intéressement possible) + 100 € nets/mois (forfait restauration) + forfait annuel lié à la mobilité douce + 1 jour de télétravail/semaine + 6 jours de RTT/an.
Freelance

Mission freelance
Data Scientist

Codezys
Publiée le
Machine Learning
Python
Pytorch

12 mois
340-430 €
Lille, Hauts-de-France
Contexte de la mission Au sein de l’équipe Recommandation, le candidat retenu jouera un rôle clé dans l’exploration et la mise en œuvre de nouveaux algorithmes visant à enrichir nos systèmes de recommandation, essentiels au bon fonctionnement de notre site. La mission consiste à concevoir, prototyper et valider des solutions innovantes reposant sur l’intelligence artificielle (IA) et l’apprentissage automatique (ML), afin d’améliorer l’expérience utilisateur et de répondre aux enjeux métier liés à la personnalisation. Vos missions principales seront les suivantes : Veille et innovation autour des systèmes de recommandation : Suivre activement les dernières avancées en IA et ML (Deep Learning, apprentissage par renforcement, etc.). Identifier et évaluer les technologies en lien avec les cas d’usage, notamment en lien avec les Large Language Models (LLM) et l’IA générative, pour définir leur pertinence et leur potentiel d’intégration. Développement et expérimentation : Concevoir, réaliser et tester des Proof of Concept (PoC) et des Minimum Viable Products (MVP) performants et sécurisés, afin de valider la faisabilité technique des solutions envisagées. Cette étape inclut une approche itérative pour maximiser l’efficacité des prototypes. Analyse de données et modélisation : Explorer des jeux de données complexes pour identifier des patterns, insights et opportunités d’amélioration. Concevoir, entraîner et affiner des modèles d’IA adaptés aux cas d’usage métiers, afin d’optimiser la pertinence des recommandations générées. Travail en équipe et partage des connaissances : Collaborer étroitement avec les équipes métiers, les Product Owners et les équipes transverses (notamment AAAI). Comprendre leurs besoins, échanger sur les avancées techniques, et assurer une documentation claire et précise des choix et des résultats obtenus. Intégration et amélioration continue : Travailler avec l’équipe AI Capabilities pour l’intégration et le déploiement des solutions IA sur les plateformes existantes (ML Solution, GenAI Solution). Contribuer à l’évolution des systèmes en intégrant les retours d’expérience et en adaptant les modèles en continu pour garantir leur performance et leur adaptéibilité. Ce poste nécessite une forte capacité d’auto-apprentissage, un esprit d’innovation, ainsi qu’une aptitude à travailler en équipe dans un environnement dynamique et technologique en constante évolution.
Freelance
CDI

Offre d'emploi
Senior IT Project Manager – Programme Data

Gentis Recruitment SAS
Publiée le
Data governance
Data management
Service Delivery Management

12 mois
Paris, France
Contexte de la mission Dans le cadre d’un programme stratégique de transformation data à l’échelle internationale, notre client recherche un Senior IT Project Manager pour piloter le déploiement d’un backbone data B2B. Le programme vise à : standardiser les définitions de données B2B industrialiser les contrôles de qualité de données fiabiliser le reporting multi-pays aligner les processus Sales, Finance, Risk, Operations et Carbon fournir une source de vérité unique (single source of truth) Le périmètre couvre plusieurs entités internationales (Europe, Amériques, APAC) dans un environnement fortement gouverné. Objectifs de la mission Le consultant interviendra en responsabilité sur le pilotage global des activités IT liées au programme. Principales responsabilités : Déployer et améliorer les indicateurs et métriques B2B Piloter l’onboarding des parties prenantes Garantir le respect des objectifs, du périmètre, des délais, du budget et de la qualité Coordonner la communication projet et la gestion des stakeholders Piloter les risques, incidents et changements Assurer le steering IT et la delivery des développements selon la roadmap Coordonner les équipes IT locales, architectes et parties prenantes internationales Assurer le reporting auprès des instances de gouvernance Livrables attendus Planning de suivi projet Définition et suivi du périmètre Planification capacitaire Reporting de gouvernance Suivi des risques et plans de remédiation Points différenciants (fortement valorisés) Expérience programmes data backbone / data governance Contexte grands groupes internationaux Coordination multi-pays Interaction Data Office / Product Owners Environnements fortement gouvernés
CDI

Offre d'emploi
Data Scientist Confirmé H/F

█ █ █ █ █ █ █
Publiée le
Python
SQL

40k-45k €
Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Architecte Master Data Management F/H

COEXYA
Publiée le

50k-60k €
Saint-Didier-au-Mont-d'Or, Auvergne-Rhône-Alpes
CONTEXTE Dans le cadre de nos activités, nous développons pour nos clients des solutions dédiées à la gestion de la donnée cliente : améliorer la qualité de la donnée client à travers sa fiabilisation, son dédoublonnage et sa diffusion à travers un référentiel unifié. Pour accompagner la croissance de notre entité spécialisée dans la transformation digitale, nous recherchons notre futur Architecte MDM (Master Data Management) F/H. CE QUE L'ON VOUS PROPOSE Vous participez à la construction de l'offre MDM, en particulier sur les aspects techniques et technologiques. Vous intervenez sur les phases clés associées à la construction d'un projet de MDM, depuis l'avant-vente jusqu'à l'accompagnement des équipes de réalisation (4 à 6 consultants en moyenne selon projet) : - Vous concevez et préconisez les solutions techniques, - Vous menez des ateliers techniques avec les clients, - Vous intervenez sur différentes phases du projet depuis l'avant-vente jusqu'à leur utilisation en production - Vous encadrez les équipes techniques (accompagnement, transfert de compétences, audit des réalisations).
Freelance

Mission freelance
Business Analyst - expérience Data sur des données Clinique - Anglais courant exigé/sa

WorldWide People
Publiée le
Business Analyst

6 mois
400-550 €
France
Business Analyst données cliniques/de santé client dans la pharmaceutique parler couramment anglais nous recherchons un Business Analyst expérimenté (au moins 5 ans d'expérience). Compétences requises : Solide expérience des normes en matière de données cliniques/de santé (HL7, FHIR, CIM-10, LOINC, etc.). Bonne compréhension des plateformes et des pipelines de données (Snowflake, dbt, IICS est un plus). Capacité à rédiger des documents fonctionnels clairs, des récits d'utilisateurs et des critères d'acceptation. Solides compétences en communication et expérience de travail dans des environnements Agile. 3 à 6 ans ou plus en tant que Business Analyst dans les domaines des données, de la santé et de la réglementation. Prérequis obligatoire , il faut absolument une expérience réelle dans le domaine de la Data sur des données cliniques et parler couramment anglais. Durée : 1 an Démarrage : ASAP Localisation : France Nous recherchons un Business Analyst pour soutenir les initiatives liées aux données opérationnelles cliniques (MDM, SSU, CTMS, Site connect, CRM, chaîne d'approvisionnement, finances, ERP). Le consultant servira de pont entre les parties prenantes commerciales, les équipes cliniques et l'ingénierie des données afin de traduire les besoins en exigences de données exploitables. Responsabilités principales : Recueillir, analyser et documenter les exigences commerciales pour les cas d'utilisation des données cliniques et opérationnelles. Traduire les besoins fonctionnels en spécifications claires pour les équipes d'ingénierie et d'analyse des données. Soutenir les activités liées à la qualité, à la traçabilité et à la gouvernance des données (définitions, dictionnaires de données, règles de validation). Animer des ateliers avec les parties prenantes cliniques/opérationnelles et assurer la coordination entre les équipes. Contribuer à la gestion du backlog et à la planification des sprints à l'aide de Jira ; documenter les processus dans Confluence. Compétences requises : Solide expérience des normes en matière de données cliniques/de santé (HL7, FHIR, CIM-10, LOINC, etc.). Bonne compréhension des plateformes et des pipelines de données (Snowflake, dbt, IICS est un plus). Capacité à rédiger des documents fonctionnels clairs, des récits d'utilisateurs et des critères d'acceptation. Solides compétences en communication et expérience de travail dans des environnements Agile. 3 à 6 ans ou plus en tant que Business Analyst dans les domaines des données, de la santé et de la réglementation.
Alternance
CDI

Offre d'emploi
Data scientist (38972) (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel

Chappes, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
101456/gestion de projets MOE Data NIORT ETL/EL, SQL. DATA, IA, RPA, Data Science.

WorldWide People
Publiée le
ETL (Extract-transform-load)

8 mois
400-470 €
Niort, Nouvelle-Aquitaine
gestion de projets MOE Data NIORT ETL/EL, SQL. DATA, IA, RPA, Data Science. Compétences : : - Appétence pour les sujets techniques : DATA, IA, RPA, Data Science. - Maîtrise des outils de type ETL/ELT pour la préparation et l'industrialisation des flux (souhaitée). - Expertise en langage SQL (par exemple, Dataiku). - Capacité à challenger une équipe, ses solutions, aider à chiffrer les coûts de réalisation et mener à bien les phases de qualification avec les clients. - Connaissances en intégration et optimisation des données pour Tableau (ou équivalent). - Expertise en modélisation de données (MCD, dimensionnel) et capacité à les mettre en œuvre. - Expérience solide en conception et implémentation de processus ETL/ELT. - Expérience en BI/BO ou SAS serait un plus dans le cadre des migrations à réaliser. - Connaissances en assurance vie seraient appréciées. Conditions de travail : - Présence sur site à Niort à raison de 3 jours minimum par semaine, dès l'autonomie acquise. construire, maintenir et optimiser les plateformes et pipelines de données, garantissant ainsi la fiabilité et l'accessibilité des données pour l'ensemble de l'entreprise. Responsabilités : - Pilotage d'activité. - Management opérationnel d'une équipe composée de 2 pôles. - Accompagnement de l'équipe dans les conceptions. - Aide aux PO dans la relation avec les métiers. - Garantie des livrables avec les clients (entrants/sortants). - Animation d'ateliers métiers. - Participation à des task forces en cas d'incidents.
CDI

Offre d'emploi
Data Engineer Databricks - Lyon

KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks

45k-55k €
Lyon, Auvergne-Rhône-Alpes
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
CDI

Offre d'emploi
Développeur Java Senior

ASTRELYA
Publiée le
Apache Kafka
Argo CD
AWS Cloud

La Garenne-Colombes, Île-de-France
Vous rejoindrez un programme stratégique de refonte de la plateforme B2C dans le secteur de l'énergie à l’échelle mondiale, dans un environnement Agile Scrum et collaboratif avec des équipes réparties dans plusieurs pays. Ce projet vise à construire des solutions innovantes et scalables sur AWS Cloud, en s’appuyant sur les meilleures pratiques DevOps et CI/CD. Responsabilités principales : Développer et concevoir des applications Java robustes et performantes, basées sur des architectures microservices et orientées cloud AWS. Participer activement au développement (rôle de doer) : codage, revue de code, tests, optimisation. Définir et promouvoir les bonnes pratiques de développement, qualité et sécurité du code. Encadrer et guider les développeurs juniors, en jouant un rôle de mentor technique. Collaborer avec les équipes internationales (produit, architecture, data) pour garantir la cohérence et la performance des solutions. Stack technique : Langages & Frameworks : Java, Spring Boot Cloud & Infra : AWS (Lambda, EC2, S3, RDS), Terraform, GitOps Intégration & Services : Microservices, API Management, Kafka, Redis, PostgreSQL CI/CD & DevSecOps : GitHub Enterprise, JFrog, SonarQube, ArgoCD Observabilité & Sécurité : Datadog, Prisma Cloud Collaboration : Jira, Confluence
Freelance

Mission freelance
Data Platform Engineer (Hadoop CDP/HDP, Spark, Airflow, Kubernetes) - IDF

ISUPPLIER
Publiée le
Apache
Hortonworks Data Platform (HDP)
Kubernetes

1 an
450-650 €
Île-de-France, France
Objectifs de la mission Le bénéficiaire souhaite une prestation d’accompagnement pour assurer le MCO des Infrastructures HDP et CDP, administration des Clusters, Prestations demandées Les missions sont: Les consultants retenus auront pour mission : • Administration et optimisation de clusters HDP/CDP • Installation, configuration et maintenance des clusters. • Gestion des mises à jour et des patchs de sécurité. • Surveillance des performances et optimisation des ressources. • gestion/administration de clusters Kubernetes • Automatisation des déploiements avec Operators…, etc. • Sécurisation et monitoring des environnements conteneurisés. • Orchestration des workflows avec Apache Airflow : • Développement et optimisation des DAGs pour la gestion des pipelines de données. • Gestion des dépendances et optimisation des temps d’exécution. • Intégration avec les autres outils de l’écosystème. • Traitement et analyse des données avec Apache Spark : • Développement et optimisation des jobs Spark (batch et streaming). • Gestion des performances et tuning des jobs. • Intégration avec les systèmes de stockage distribués. • Optimisation des requêtes et accès aux données avec Starburst : • Configuration et administration de Starburst. • Optimisation des requêtes SQL distribuées. • Sécurisation et gestion des accès aux différentes sources de données. Français/Anglais
Freelance

Mission freelance
Développeur Data

Signe +
Publiée le
Microsoft Power BI
Power Automate
SharePoint

6 mois
400-420 €
Toulouse, Occitanie
Contexte de la mission Renfort de l'équipe RSSI du secrétariat général de BPCE SI pour améliorer, construire, fiabliser les outils de reporting locaux au domaine sécurité. Il y aura dans la mission, non seulement la consolidation, le MCO, la réalisation des outils mais aussi le RUN de ces outils avec la production des reportings réguliers à destination de la DG BPCE SI (hebdo, mensuels ...). Selon la charge d'autres activités de l'équipe RSSI pourront aussi être proposées pour prise en charge sans toutefois nécessiter des compétences SSI fortes. Il est néanmoins important que le collaborateur ait une appétence à découvrir l'unvivers de la gestion des risques IT. Descriptif général de la mission / Livrables et dates associées -> Conception / Réalisation / MCO d’outils de reporting d’activités de gestion de risque Gouvernance SSI (expérience en PowerBi, PowerAutomate, Lists, SharePoint) -> RUN de la réalisation des reporting hebdo, mensuels, trimestriels … => point d’attention : reporting adressé à la DG donc nécessitant un très haut niveau de précision/rigueur/qualité -> Autres activités RSSI sous réserve de capacité à faire (charge) : plan de sensibilisation SSI (animation, établissement, organisation, suivi et logistique), activités de gestion des risques … Pas nécessaire d'être un expert technique en sécurité des SI. Mission potentiellement reconductible.
Freelance

Mission freelance
Expert Observabilité Datadog

Cherry Pick
Publiée le
AWS Cloud
Datadog
Terraform

12 mois
550-650 €
Paris, France
Vos principales missions : 1. Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier des axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, structure des dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les différentes équipes Optimiser l’usage de la plateforme (volumétrie logs, sampling APM, gestion des coûts, rétention)Fiche de poste Expert Observabilité Datadog Définir et partager des bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus / Grafana utilisés pour les métriques techniques 2. Supervision, observabilité et fiabilité (SRE) Concevoir, mettre en œuvre et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, meilleure corrélation incidents) Formaliser des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et service management Améliorer la détection proactive des incidents Assurer la complémentarité et la cohérence entre métriques Prometheus/Grafana et observabilité Datadog 3. Accompagnement des équipes et adoption Une forte dimension transverse et pédagogique est attendue : Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir une documentation claire sur les standards et recommandations définis Match : 1. Formation & expérience : Bac +5 (école d’ingénieur, université ou équivalent) en informatique Expérience confirmée (3 à 5 ans minimum) dans le domaine du monitoring, observabilité Expérience significative sur Datadog (Logs, APM, Monitors ; RUM et Product Analytics appréciés) Une expérience en environnement Cloud AWS et Infrastructure as Code (Terraform) est un plus 2. Compétences techniques : Datadog : Logs, APM, RUM, Product Analytics, Dashboards, Monitors, SLO Observabilité : compréhension des concepts SLI/SLO, tracing distribué, corrélation logs/métriques/traces Monitoring : Prometheus, Grafana Bonne compréhension des architectures web et performance front (Web Vitals) 3. Compétences transverses : Rigueur, réactivité et esprit analytique Capacité à améliorer l’existant de manière pragmatique Pédagogie et capacité à collaborer avec des équipes pluridisciplinaires (dev, ops, qa, produit, support)
CDI
Freelance

Offre d'emploi
Data engineer Python

UCASE CONSULTING
Publiée le
Azure
CI/CD
Flask

1 an
40k-45k €
400-550 €
Île-de-France, France
Bonjour à tous, Notre client recherche un Data Engineer Python afin de renforcer ses équipes data intervenant sur plusieurs projets de traitement et d’industrialisation de données dans un environnement cloud . L’objectif de la mission est de participer au développement et à l’évolution de solutions data utilisées par différentes applications métiers. Vous interviendrez au sein d’une équipe de Data Engineers travaillant en méthodologie agile , sur des projets mêlant développement de pipelines de données, services data et maintenance évolutive dans un environnement Python / Cloud . Vos missions Concevoir et développer des pipelines de traitement de données en Python Participer au développement de services ou APIs data Implémenter les User Stories et contribuer aux sprints agiles Réaliser les tests techniques et produire la documentation associée Participer à l’ industrialisation des développements (CI/CD, monitoring) Contribuer aux évolutions et à la maintenance des applications data existantes
Freelance

Mission freelance
DATA ENGINEER / TECH LEAD

Codezys
Publiée le
Conception
Informatica
Power BI Desktop

12 mois
450-550 €
Toulouse, Occitanie
Contexte de la mission Nous recherchons un(e) chef de projet technique / ingénieur data expérimenté(e), possédant des compétences avérées en SQL, ETL et outils de reporting. La mission concerne le domaine du datawarehouse de cargaison, spécialisé dans le chargement et la transformation de données pour les filiales AF&KL. La personne sélectionnée devra accompagner l’équipe dans la gestion des projets en cours ainsi que dans le développement de nouvelles fonctionnalités, en apportant son expertise pour les corrections et améliorations futures. Le poste s’inscrit au sein d’une équipe composée de huit membres, et la présence à Toulouse est obligatoire. Objectifs et livrables Contribuer à la maintenance et à l’évolution du datawarehouse cargo, en garantissant la qualité et la performance des données. Participer à la conception, au développement et à la mise en œuvre des nouvelles fonctionnalités et corrections. Collaborer étroitement avec l’équipe pour assurer la cohérence et l’efficacité des processus de chargement et de transformation des données. Fournir une documentation claire et précise des livrables réalisés. Conditions particulières Localisation : obligatoire à Toulouse. Veuillez fournir la matrice jointe détaillant les niveaux de compétence pour chaque profil proposé. Nous demandons uniquement la soumission de candidats correspondant strictement aux compétences requises, notamment pour les niveaux 3/4 ou 4/4 dans les compétences clés mentionnées.
Freelance

Mission freelance
Data Engineer

Hanson Regan Limited
Publiée le
Apache NiFi
Cloudera
Hadoop

12 mois
500-650 €
Paris, France
Hanson Regan recherche un Data Engineer pour une mission 12 mois renouvelable, basée à Paris Données en anglais : Compétences: -Hadoop Cloudera - Flux de travail / injection - Outils de visualisation - Pipeline Longue liste : Les outils d’ingestion de données : NiFi Les outils de stockage de données : HDFS, CEPH Les outils d’ordonnancement des jobs : Airflow Les outils de gestion des ressources (CPU, RAM) : YARN Les moteurs et frameworks d’exécution : MapReduce, Spark, TEZ Les langages de développement : Python, Scala Les outils de prototypage/exploration : Jupyter, Dataiku Les outils orientés datamart : Hive, PostgreSQL Les outils de proxyfication (Access) : Knox, HAProxy Les outils d’affichage d’indicateurs et tableau de bord : Grafana, Tableau, Superset, S7 Les outils de sécurité : Kerberos, LDAP, IPA gratuite Les outils d’administration et de gouvernance : ClouderaManager, Ranger Les outils de supervision et d’exploitation (DevOps) : Prometheus, Puppet, Heat, Ansible Les dépôts de binaires : Mirroring des dépôts issus du web HTTP pour les applications tiers. Merci de nous contacter au plus vite si vous êtes intéressé ou si vous connaissez une personne correspondant à ce profil
2774 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous