Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 174 résultats.
Freelance
CDI

Offre d'emploi
DevOps Python H/F

OBJECTWARE
Publiée le
AWS Cloud
Python

1 an
Nantes, Pays de la Loire
Les missions : - vous intervenez sur l’ensemble du cycle de vie des applications : conception, développement, déploiement et maintenance. - vous participez activement à la conception de solutions robustes, scalables et sécurisées, en répondant aux exigences fonctionnelles et techniques. Le rôle couvre à la fois le développement Front-End (React), le développement Back-End (Python, AWS Lambda) ainsi que les activités DevOps et Cloud AWS. - vous êtes impliqué(e) dans une migration technologique d’un backend existant
Freelance

Mission freelance
Data Engineer

Codezys
Publiée le
Intelligence artificielle
Python
Snowflake

12 mois
Bordeaux, Nouvelle-Aquitaine
Dans le cadre de notre démarche d'innovation et de renforcement de notre expertise en gestion de données, nous lançons un appel d'offres pour le recrutement d'un(e) Data Engineer intégré(e) à notre Direction des Systèmes d'Information (DSI). Le(a) candidat(e) retenu(e) aura pour mission principale d'apporter son expertise technique sur des sujets récents liés à l'intelligence artificielle (IA) appliquée à la data, en s'appuyant sur une compréhension approfondie des enjeux métiers et techniques. Responsabilités principales : Alimentation de données : Effectuer l'ingestion, la transformation et la mise à jour des flux de données provenant de différentes sources afin d’assurer leur disponibilité et leur cohérence. Collaboration avec un Data Analyst : Travailler en binôme sur des projets liés à l’IA et à la data, en apportant votre expertise technique pour la réalisation d’analyses et la mise en place de solutions innovantes. Développement d’outils IA : Participer à la conception et au déploiement d’agents IA capables de réaliser du requêtage SQL en langage naturel, facilitant ainsi l’accès et l’interprétation des données par les utilisateurs métier. Outils et monitoring : Mettre à disposition des outils d’aide au développement, au monitoring et à la maintenance des plateformes data, afin d’assurer leur fiabilité et leur performance. Veille technologique : Effectuer une veille continue sur les architectures data, en termes de nouvelles tendances, d’outils émergents et de bonnes pratiques, pour faire évoluer nos solutions et répondre efficacement aux besoins métiers. La personne recrutée devra faire preuve de rigueur, d’autonomie et d’un esprit d’innovation, tout en étant à l’écoute des besoins des utilisateurs finaux. La maîtrise des technologies liées à l’IA, aux plateformes data et à la requête en langage naturel sera un réel atout pour la réussite de ce projet. Nous invitons donc les candidats ou organismes intéressés à soumettre leur proposition, en précisant leur approche technique, leur expérience et leur capacité à répondre à ces enjeux stratégiques.
Freelance

Mission freelance
Senior BackEnd Developer – (Fabric / Python)

Codezys
Publiée le
Azure
Azure DevOps Services
Git

12 mois
Aubervilliers, Île-de-France
Rejoignez une initiative à fort impact dans le domaine des données au sein d'un groupe de services environnementaux de premier plan. Nous développons une Plateforme d'Intelligence Artificielle Industrielle dédiée au traitement, à l'analyse et à la visualisation en temps réel des données de séries temporelles provenant de sites industriels. Cette plateforme repose sur Microsoft Fabric , en utilisant principalement Python et les services Azure, afin d'offrir aux équipes industrielles des analyses avancées et des insights pertinents. Vous ferez partie d'une équipe pluridisciplinaire composée de : 1 Chef de Produit 1 Product Owner 1 Lead Développeur 3 Développeurs Data 1 Développeur DevOps Nous recherchons actuellement un Développeur Back-End Senior pour renforcer notre équipe de développement centrale. Objectifs et livrables Principales responsabilités Concevoir, développer et optimiser des pipelines de données ainsi que des frameworks de traitement en utilisant Microsoft Fabric et Python. Traiter des données de séries temporelles afin de permettre des analyses en temps réel et à postériori pour les opérations industrielles. Collaborer étroitement avec le Product Owner et les acteurs métier pour transformer leurs besoins en flux de données robustes et en architectures évolutives. Contribuer à la livraison du produit minimum viable (MVP) de la plateforme ainsi qu'aux déploiements à grande échelle à venir. Appliquer les meilleures pratiques DevOps en utilisant Terraform et GitLab CI/CD pour automatiser et sécuriser les déploiements.
Freelance

Mission freelance
Tech Lead Java/ angular (H/F)

ALLEGIS GROUP
Publiée le
Angular
AWS Cloud
DevOps

6 mois
100-550 €
Neuilly-sur-Seine, Île-de-France
Dans le cadre de la modernisation de notre plateforme et de l’adoption d’une culture You Build It, You Run It, nous recherchons un profil hybride : un lead développeur confirmé (Java / Angular) avec une forte culture Cloud/AWS et un sens de l’exploitation. Ce rôle va au-delà du développement classique : il s’agit de construire, déployer et opérer les applications en production, d’assurer leur performance et de contribuer à l’automatisation de notre chaîne logicielle. Missions principales • Développer les services backend en Java / Spring Boot et les interfaces en Angular, dans une démarche craft (tests, clean code, revues). • Concevoir, industrialiser et maintenir les pipelines CI/CD pour automatiser les déploiements (GitLab CI). • Déployer et exploiter les applications sur AWS : Farget, Lambda, S3, CloudFront, RDS/Aurora, API Gateway, VPC. • Automatiser l’infrastructure via IaC (Terraform, CDK), y compris la création, la mise à jour et la maintenance des environnements. • Mettre en place les standards de qualité et de sécurité (tests, scans, bonnes pratiques AWS, IAM, secret management). • Contribuer au monitoring et à l’observabilité (CloudWatch, Prometheus, Grafana, ELK, OpenTelemetry). • Optimiser les performances du code, des requêtes, des API, ainsi que le dimensionnement des ressources cloud. • Assurer la continuité de service : disponibilité, résilience, gestion des incidents, analyse post-mortem. • Participer activement à la vie du produit : architecture, conception, revues de code, amélioration continue. • Apporter un regard Ops au sein de l’équipe : logging, alerting, observabilité, bonnes pratiques de run. • Veille et recommandation sur les bonnes pratiques DevOps, AWS et outils d’industrialisation.
Freelance

Mission freelance
SRE Observabilité

HAYS France
Publiée le
Datadog
Grafana
Kubernetes

3 ans
100-470 £GB
Lille, Hauts-de-France
Votre mission : - Design, intégration, templating, déploiement, parametrage des composants de la plateforme d'Observabilité - Administration, gestion des incidents/problèmes, industrialisation, et amélioration continue des outils qui composent la plateforme d'Observabilité - Accompagnement et conseils des utilisateurs dans l'utilisation de la plateforme d'Observabilité de la collecte (logs, métriques, traces) à l'exploitation dans les backends pour l'amélioration de la disponibilité et la performance de leurs applications/projets métiers (à l'international) - Rédactions des ADR, de la documentation, des RUN books, afin de diffuser la connaissance auprès des équipes techniques internes. Environnement technique : Vous avez une bonne connaissance de la sécurité et des architectures cloud. Vous disposez notamment des connaissances techniques suivantes : - Maîtrise de GCP, Azure serait un plus. - Maitrise avancée de Kubernetes - Maitrise avancée de Datadog, expérience dans un environnement engageant de forts volumes - Bonne connaissance de la plateforme Grafana, build et run en environnement engageant de forts volumes - Connaissances OpenTelemetry - Expérience en instrumentation d’applications - Maîtrise de Terraform/AWX - Connaissances bonnes pratiques de développement, IaC, Python, Go serait un plus - Culture SRE et SLO
Freelance

Mission freelance
Chef de projet DATA avec une forte expertise en finance & Procurement Data

ARKAMA CS
Publiée le
Data analysis
Finance
SAP

3 mois
Île-de-France, France
Chef de projet DATA avec une forte expertise en finance & Procurement Data. Démarrage immédiat Lieu IDF + télétravail Durée 3 mois renouvelables, projet long Si ce projet vous intéresse, pouvez-vous svp nous faire parvenir les informations suivantes ? Votre date de disponibilité Votre taux journalier Votre lieu d’habitation Votre résumé sous format Word Niveau d’anglais Pour les sociétés, merci de préciser si votre consultant est salarié de votre société Senior Business Analyst / Project Manager (BA/PM) - Procurement Spend Analytics Tool (building & implementation Report to both Procurement business (tool owner) & Information Management Office (project management) Profil sénior (+10 years) Anglais courant indispensable Profil Ce rôle demande une forte expertise en finance & Procurement Data, ERP and/or procurement suite tool, spend classification methodologies, Data analytics/manipulation, business requirements writing, and project/stakeholder management. Connaissance de SAP, including invoices, accounting, and procurement suites/tools (Ariba, etc.) Compétences en DATA manipulation and proficient in handling large-scale transactional datasets Project Management - animation d’ateliers Forte compréhension en IT architecture, including data storage solutions and hyperscale platforms (Google Cloud Platform, SAP BW) Demonstrated experience in procurement analytics, spend analysis, spend classification, strategic sourcing, and procurement transformation initiatives Adept at building and implementing spend categorization and spend analytics tools Rôle Le client recherche un Project leader / Business Analyst/Data Analyst to participate in the Procurement Spend Analysis tool development. The Lead Business Analyst will have to manage the implementation of Procurement spend consolidation, categorization and visualization in collaboration with Business and IT. L’objectif est de remplacer une SAAS solution with an in-house solution. Vous serez responsable for data preparation, spend classification using taxonomy, leading the tool development with IT/Business, governance setup and change management to ensure successful deployment and measurable business impact. There are huge expectations from Procurement Top Management. Le Business (Product) Analyst est le pont entre le Business department and the development teams of the client IT Development organization and contributes to the client business strategy by translating business needs into sustainable products and services. On one hand, the Business (Product) Analyst ensures the right quality of the products and services already in place and on the other hand plays a key role in developing new products and services. Le Business (Product) Analyst travaille avec le business and IT stakeholders afin d’identifier, analyzer, communicate, and validate the needs for change in business processes and information systems. They are responsible for managing issues, evaluating and proposing solutions to meet expressed needs, and enabling the business organization to achieve its objectives. The Business (Product) Analyst operates under security and regulatory constraints, with a constant focus on economic optimization, while ensuring social impact and convergence of the client information systems.
Freelance

Mission freelance
SENIOR DATA AND AI ENGINEER

CAT-AMANIA
Publiée le
Azure DevOps
CI/CD
Data Lake

1 an
100-390 €
Villeneuve-d'Ascq, Hauts-de-France
Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Mission 􋰄 Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). 􋰄 Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. 􋰄 Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. 􋰄 Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). 􋰄 Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. 􋰄 Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards.
Freelance

Mission freelance
Ingénieur Plateformes Kubernetes / OpenShift

Deodis
Publiée le
Docker
Kubernetes
Openshift

1 an
350-500 €
Annecy, Auvergne-Rhône-Alpes
(Merci de ne pas répondre si vous n'avez pas ces compétences !) Les taches de l’équipe sont les suivantes : · Suivi des architectures proposées par le pôle du client pour s’assurer qu’elles respectent le cahier des charges BPCR et les exigences du client final · Participation aux réunions d’adoption de nouvelles offres avec les mêmes responsabilités que le point précédent. · Participation aux upgrades des plateformes et exercices PSI (HNO). · Gestion capacitaire des plateformes. · Participation à la gestion des incidents sur les plateformes. · Support aux AppOps et aux utilisateurs sur l’utilisation des plateformes et des services proposés par l’équipe. · Création et MCO des images docker de référence utilisées sur les plateformes (Debian, alpine, Ubuntu). Un certain nombre d’images middleware (php, apache, JRE, python, Terradata) sont fournies s’intégrant directement à l’écosystème du client · Développement interne en python (script ou API) permettant de gérer les plateformes, fournir des dashboards, exposer des métriques, afficher le respect des règles de déploiement et configuration. (Technologies : FastApi, Gitlab, Gitlab-ci, python, Hugo, Gitlab Pages) · Création de dashboards Grafana pour suivre la plateforme et apporter de la visibilité aux utilisateurs finaux.
Freelance
CDI

Offre d'emploi
Data Scientist

ANDEMA
Publiée le
Databricks
PySpark
Python

12 mois
55k-65k €
400-500 €
Lille, Hauts-de-France
Contexte Entreprise en forte croissance , avec un volume d’activité soutenu et de nombreux projets data en cours et à venir. Dans ce cadre, nous recherchons un(e) Data Scientist pour compléter l’équipe existante et contribuer activement au développement de nouveaux sujets stratégiques. Modalité : Pré-embauche (PE) Possibilité d’intervenir en freelance pendant la période de pré-embauche , avec une volonté forte d’internalisation à l’issue du process. Votre mission Vous rejoindrez une équipe data dynamique avec pour objectif : Prendre en main de nombreux sujets variés Construire, tester, industrialiser des modèles et analyses Travailler en étroite collaboration avec les équipes métiers Participer à la structuration et à la montée en maturité data de l’entreprise Contribuer à des problématiques de mesure de performance, campagnes marketing, retail média , etc. Ici, pas de silo : vous serez exposé(e) à des problématiques multiples et stimulantes. Nous recherchons donc des candidats passionnés et polyvalents. Stack technique Python (obligatoire) PySpark (obligatoire) Databricks Environnements data modernes orientés cloud Pourquoi nous rejoindre ? - Entreprise en forte croissance - Projets variés et concrets - Forte exposition business - Possibilité d’évolution rapide - Environnement agile et stimulant Si vous aimez la diversité des sujets, l’impact business et les environnements en croissance, cette opportunité est faite pour vous
Freelance

Mission freelance
DATA SCIENTIST

Geniem
Publiée le
Data science
Dataiku
Google Cloud Platform (GCP)

6 mois
Lille, Hauts-de-France
Mission détaillée : Accompagner les projets de Data Science / Data Ingénierie de l’équipe Big Data sur des projets d’entreprise existant ou à développer : NLP, Deep Learning... Comprendre la problématique métier Imaginer les solutions / algorithmes pour y répondre Développer les algorithmes dans le respect des normes de développement de l’entreprise (GitHub) Contribuer à l’industrialisation de ces algorithmes Monitorer leur run Documenter les algorithmes SON ACTIVITE : Applique des techniques (statistiques, text mining, comportementale, géolocalisation, ) d’extraction et d’analyse d’informations, obtenues à partir de gisements de données (Big Data) Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les bases de données à consolider, modifier, rapatrier,externaliser, internaliser, conçoit des datamarts, voire des entrepôts de données (data warehouses). Évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du Métier. Analyse les données pour traduire une problématique Métier en problème mathématiques/statistiques et réciproquement. Environnements techniques Google Cloud Platform (GCS, BigQuery) Github Python Machine Learning Les livrables sont : Algorithmes ML Dashboards Explicabilités d’algorithmes
Freelance

Mission freelance
DATA ANALYST

Geniem
Publiée le
Python

6 mois
Lille, Hauts-de-France
Data Analyste Le domaine Search&amp et Publication recherche un/une data analyst pour mener à bien des projets de data analyse et de dashboarding Objectif global du projet : Accompagner le métier Search&amp Publication en réalisant des études statistiques, des explorations de données et en construction des Dashboards Contrainte forte du projet GCP + PowerBI + Connaissance Web Les livrables sont Analyses statistiques Compétences techniques : Python, SQL - Confirmé - Impératif Dashboards (Power BI + Data Studio) - Confirmé - Impératif Connaissance données Web - Confirmé - Impératif Google Cloud Platform - Confirmé - Impératif Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif) Mission : - accompagner et challenger le métier - être force de proposition sur des solutions adéquats et innovantes pour répondre aux problématiques métiers - réaliser des analyses statistiques préparatoires - réaliser des dashboards clairs et synthétiques - être pédagogue & autonome - communiquer, partager avec les autres interlocuteurs de la direction IT (data scientists, chef de projets et data ingénieurs) - savoir communiquer & restituer des résultats concrets SA MISSION : Mettre en œuvre des outils informatiques, des techniques et des méthodes statistiques pour permettre d’organiser, synthétiser et traduire efficacement des données. SES LIVRABLES : - Modèle et structuration des données - Algorithme / Méthode statistique
Freelance

Mission freelance
Data Product Manager – Data & BI Platform

Comet
Publiée le
Microsoft Power BI

1 an
400-550 €
Île-de-France, France
Dans le cadre de la transformation Data de Saint-Gobain Mobility , nous recherchons un Data Product Manager senior pour piloter plusieurs initiatives stratégiques autour des plateformes Data & BI . Vous interviendrez au sein d’un environnement international, en collaboration étroite avec des architectes data, data engineers, équipes BI et métiers (Sales, Finance, Manufacturing, Supply Chain, Purchasing) . L’objectif : structurer et piloter un portefeuille de produits data alignés avec les besoins business et la stratégie Data du groupe. Vos missions Piloter l’étude et le cadrage de projets Data & BI Recueillir et formaliser les besoins métiers Animer des workshops avec les stakeholders Structurer l’architecture fonctionnelle et les flux data Concevoir les modèles de données et business layers Coordonner les équipes Data Engineers / Architectes / BI Évaluer la valeur business des solutions proposées Préparer les roadmaps, budgets et planning de delivery Formaliser les propositions de lancement projet Environnement & sujets clés Plusieurs initiatives structurantes sont en cours : Migration vers une Cloud Data Platform Migration MicroStrategy → Power BI Structuration des produits data dans une logique Data-as-a-Service Cas d’usage métiers : Sales Finance Manufacturing Supply Chain Purchasing
Freelance

Mission freelance
FREELANCE Expert / Référent Technique – Dataiku & Braincube

HAYS France
Publiée le
AWS Cloud
Dataiku

6 mois
Île-de-France, France
Pilotage & gestion du service Maintien des standards, gestion des licences, suivi des usages via KPIs Gestion incidents, demandes, changements ; communication interne & client Définition et suivi des SLAs Optimisation de la performance opérationnelle Architecture & Expertise technique Rôle de référent technique & architectural pour la plateforme Data Groupe (Snowflake, Dataiku, Braincube) Garantie de la résilience du service, gestion des obsolescences Contrôle du niveau de sécurité Roadmap & gouvernance Construction de la roadmap d’évolution Pilotage du plan de charge Coordination France/Inde (prestataires, éditeur, interne) Communication & coordination Communication en cas d’incident, évolution ou maintenance Interface avec DSIC (GCIS, Delivery cas d’usage, etc.) Support & accompagnement Accompagnement des équipes dans l’exploitation Dataiku/Braincube Contribution à la montée en compétence des équipes Plateforme Dataiku en environnement hybride : Cloud AWS (Landing Zone) + On Premise pour données C3 Services : Design Node, Automation Node, API Node, Deployer Node Intégration écosystème Data, stockage pérenne, déport compute EKS / Snowflake Plateforme Braincube : Déploiement Cloud AWS sur EKS Architecture assurée par l’éditeur Braincube Responsable du service, de la sécurité et du pilotage Sécurité & Gouvernance : RBAC, SSO/IAM, journalisation, conformité RGPD Standards cybersécurité Documentation & Outils : VS Code, Git, frameworks internes Confluence/SharePoint Data Factory Gestion agile via Teams & backlog Environnements : Dev / Pré-production / Production Processus d’industrialisation et de validation définis
CDI

Offre d'emploi
Prompt Engineer PAris

Cogniwave dynamics
Publiée le
Data science
Python

1 an
40k-43k €
290-310 €
Paris, France
Pour un poste en CDI , nous recherchons un prompt engineer (2/5 ans expérience) Salaire Fixe + différentes primes de performance La mission interviendra sur un projet d’IA mise au service de la force de vente. Les principaux cas d’usages de la mission seront la génération de Pre-meeting Reports pour les commerciaux et la génération de leads IA (AI-generated leads). Phase : passage à l’industrialisation (post‑POC / phase initiale). Tâches à réaliser : Concevoir des frameworks de prompts et d’agents (agentic + standard). Mettre en place des pipelines d’évaluation structurés (Promptfoo, LangSmith, QA custom). Garantir des sorties structurées et typées (Pydantic, JSON). Gérer le PromptOps complet : Git, versionning, meilleures pratiques. Optimiser les coûts tokens via RAG et context pruning. Concevoir des API / tool-calling schemas pour l’intégration aux systèmes. Utiliser Chain-of-Thought et Self-Reflection pour améliorer le raisonnement. Construire des systèmes IA autonomes robustes pour la production.
Freelance
CDI

Offre d'emploi
Développeur Java/Data confirmé

VISIAN
Publiée le
Java
Mongodb

1 an
40k-45k €
290-410 €
Paris, France
Descriptif du poste Un groupe bancaire la création d'un service de reporting transverse pour sa division Monétique. Ce service est un asset important de la stratégie de la Monétique du groupe et doit permettre de fédérer et centraliser l'ensemble des reporting de type fichier, actuellement produits par différents systèmes et de les mettre à disposition sous différentes formes, via différents canaux. C'est dans ce contexte que les équipes IT recherchent un développeur Java/Data confirmé, qui saura participer au développement et à l'implémentation de ce service de Reporting, qui devra assurer le traitement de gros volumes de données pour générer des reporting de manière fiable et résiliente. La mission consistera à intégrer l'équipe agile en place pour participer à l'implémentation des reportings clients et des services associés avec le tech lead et ses coéquipiers, en collaboration avec les équipes du Socle Data de la monétique, mais aussi celles du portail client. Environnement technologique Évolution dans un environnement technologique récent : Java, API REST, PostgreSQL, ExaCC, Kafka, Cloud (Docker, Kubernetes), GitLab, etc.
Freelance
CDI

Offre d'emploi
Ops Engineer (5+ ans d'exp.)

WINSIDE Technology
Publiée le
Linux

2 ans
40k-48k €
400-450 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Ops Engineer pour une grande entreprise sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 5 ou plus années d'expérience professionnelle sur des missions d'Ops Engineer/expert.e industrialisation des process de déploiement et d'exploitation. tu es à même de réaliser des audits de résilience. tu as déjà travaillé avec Linux/Unix, AWS, les architectures Cloud natives et distribuées, Gatling (ou équivalent), Gremlin (ou équivalent), Terraform, Bash et Python. Objectif principal du poste : Veiller à maintenir un équilibre entre performance, fiabilité et maîtrise budgétaire. Missions : - Participer à la définition et au pilotage des SLO - Industrialiser les processus de déploiement et d’exploitation - Réaliser et restituer des audits de résilience - Exploiter et optimiser les environnements AWS dans une logique SRE - Challenger les équipes sur leurs choix techniques et architecturaux - Être force de proposition sur l’optimisation performance/coût - Administrer et maintenir les outils de résilience (Gatling, Gremlin, Dashboard SLO) - Contribuer aux analyses d’incidents et post-mortem Livrables : - Livrables techniques - Plateformes et outils de résilience opérationnels - Scripts d’automatisation et d’industrialisation - Tableaux de bord SLO et indicateurs Cloud - Configurations et scénarios de tests Livrables documentaires : - Documentation d’exploitation - Guides d’usage des outils - Procédures de résilience Supports de formation : - Livrables opérationnels - Rapports d’audit - Contribuer aux comptes rendus d’incidents - Plans d’amélioration continue Démarrage : rapide. TT: 3 jours par semaine. TJM : 450 EUR. Durée : 2 ans. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

5174 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous