Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 178 résultats.
Freelance

Mission freelance
Ingénieur de Production Devops F/H

METSYS
Publiée le
Control-M
Jboss
Jenkins

1 an
400-550 €
Île-de-France, France
Dans le cadre d’un projet chez l’un de nos clients grands comptes, nous recherchons un Ingénieur de Production F/H orienté DevOps pour intervenir sur des applications critique en environnement de production . Vous serez au cœur des enjeux de disponibilité, d’automatisation et de modernisation des plateformes. Assurer le déploiement et l’exploitation d’applications critiques en production Gérer l’obsolescence des serveurs d’applications Participer au suivi de production et à la gestion des incidents Assurer les astreintes éventuelles Contribuer aux choix d’outillage et aux standards DevOps Mettre en place et maintenir des chaînes CI/CD automatisées Administrer les serveurs Web et d’applications Gérer l’ordonnancement des traitements batch Créer et maintenir des dashboards de suivi opérationnel Enviroennement technique Middleware & Serveurs applicatifs : JBoss • Tomcat • WAS Serveurs Web & Reverse Proxy : Apache • IHS • HAProxy CI/CD & Automation : Jenkins • XL Release (XLR) • XL Deploy (XLD) • GitLab CI • Ansible • Terraform • Docker Ordonnancement : VTOM • Control-M Supervision & Monitoring : Grafana • Prometheus • ELK • Zabbix Langages & scripting : Bash • Python • YAML Cloud Native (un plus) : OpenShift • Kubernetes
Freelance
CDI

Offre d'emploi
Expert DevOps PaaS

OBJECTWARE
Publiée le
Ansible
Kubernetes
Openshift

3 ans
Île-de-France, France
Contexte Dans le cadre de la transformation de ses plateformes PaaS, le groupe lance une migration de ses environnements Kubernetes vers une plateforme OpenShift afin de standardiser les déploiements, renforcer la sécurité et améliorer l’industrialisation des environnements Cloud. L’Expert DevOps PaaS interviendra dans la conception, la migration et l’exploitation de cette nouvelle plateforme OpenShift , en collaboration avec les équipes DSI, OPS et Cloud en France et à l’international. Compétences clés Expertise OpenShift / Kubernetes Automatisation Terraform / Infrastructure as Code CI/CD et GitOps Industrialisation des plateformes PaaS Migration et transformation des plateformes conteneurisées
Freelance

Mission freelance
SAP Master data (SD/MM)

ASENIUM
Publiée le
Master Data Management (MDM)

6 mois
Île-de-France, France
Je recherche actuellement pour mon client final, un consultant SAP Master Data avec une solide expérience MM/SD pour un projet autour de la structuration et gouvernance des données produits dans SAP. Aujourd’hui, plusieurs équipes (achats, supply, commerce, finance) gèrent leurs propres fichiers, ce qui crée parfois des incohérences entre les groupes de marchandises, familles produits, hiérarchies et la valorisation financière. La mission consiste donc généralement à : 1. Centraliser et structurer les données définir un référentiel unique dans SAP harmoniser groupes de marchandises, familles produits, hiérarchies 2. Nettoyer et fiabiliser les données supprimer les doublons corriger les incohérences entre fichiers Excel et SAP mettre en place des règles de création/modification 3. Mettre en place une gouvernance définir qui crée quoi standardiser les processus de gestion du Master Data Démarrage-ASAP
CDI

Offre d'emploi
Ingénieur(e) R&D Data Scientist (H/F)

█ █ █ █ █ █ █
Publiée le
Python
Pytorch
Tensorflow

Nantes, Pays de la Loire

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Analyst - confirmé - freelance - Rouen H/F

GROUPE ARTEMYS
Publiée le

1 mois
76000, Rouen, Normandie
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées. Contexte de la mission : Le pôle Data & BI de notre client est engagé dans une dynamique de renforcement pour 2026, avec des enjeux forts autour de la structuration des usages BI, de la consolidation des données et de la mise à disposition de la donnée aux métiers dans une logique de self-BI. Les travaux portent à la fois sur la refonte de l’existant et sur la construction de nouvelles briques data, avec une volonté claire de professionnaliser les pratiques et de sortir progressivement d’un fonctionnement trop orienté production. Objectif de la mission : En tant que Data Analyst / BI Engineer, vous intervenez comme profil de construction au cœur de l’ingénierie data : Concevoir et structurer les modèles de données analytiques Fiabiliser les chaînes de traitement de données Mettre à disposition une donnée exploitable et autonome pour les métiers Contribuer à la mise en place de process data robustes (build / run / fiabilisation) Votre mission (si vous l’acceptez) : Build Conception et développement des pipelines d’ingestion et de transformation Construction de bases de données analytiques Modélisation décisionnelle (modèle en étoile) Conception de cubes pour la mise à disposition de la donnée métier Développement orienté Python, avec une approche code-first et versionnée (Git) Run Maintien et évolution des traitements existants Supervision et optimisation des flux de données Contribution à la stabilité de la plateforme data Fiabilisation (enjeu clé du poste) Mise en place de contrôles de qualité de données Sécurisation et structuration des process Contribution à la réduction des interventions directes en production Vous, notre perle rare : Compétences techniques Expérience confirmée en Data / BI Maîtrise de la conception de bases de données analytiques Solide pratique de la modélisation décisionnelle Expérience en Python appliqué au traitement de données Sensibilité forte aux bonnes pratiques de développement logiciel Compétences fonctionnelles Capacité à comprendre les enjeux métiers et à les traduire en modèles data Appétence pour les sujets de construction et de structuration Intérêt marqué pour la qualité et la fiabilité de la donnée Soft skills Esprit structurant et pragmatique Capacité à travailler dans un contexte en transformation Goût pour les environnements techniques exigeants et évolutifs Environnement technique : Cloud : Azure / Data Fabric Ingestion & orchestration : outils Azure, usage orienté code (non low-code) Langage : Python Modélisation : data marts, modèles en étoile, cubes Méthodologie : pratiques issues du développement logiciel (Git, traçabilité, structuration) Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération et conditions : TJ en fonction de votre expertise sur un poste similaire Prise de poste ASAP Freelance / Portage 3 mois renouvelable Mode de travail hybride, 1 journée de télétravail par semaine Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Freelance

Mission freelance
Data Analyst - parcours utilisateurs

PARTENOR
Publiée le
Data visualisation
Matomo

1 an
Puteaux, Île-de-France
Les missions du poste Dans le cadre d'une création de poste, nous recherchons un(e) data anlayst pour intervenir chez l'un de nos clients grands comptes dans le secteur bancaire. Vous participerez au activités du DataLab & Ai de notre client. Vos principales missions seront : - Tracking : Implémenter, maintenir et gérer le tracking des parcours utilisateurs et des campagnes de communication - Usages analytics : Optimiser l'usage de notre outil analytics (Adobe Analytics, Matomo) avec de nouveaux business cases, mettant au regard les différentes données à notre disposition (site-centric, ad-centric, études, etc.) tout en assurant la conformité GDPR - Data Visualisation : créer des dashboards automatisés en fonction des besoins selon différentes méthodes de consolidation de données assurant le pédagogie et l'appropriation de la donnée (UX) - Reporting et analyses : produire des analyses récurrentes ou ad hoc, notamment sur les performances digitales de nos assets ou de nos campagnes - Data quality : sécurité, GDPR, normes numérique responsable
Offre premium
CDI
Freelance

Offre d'emploi
Expert Bases de Données (Cassandra)

Lùkla
Publiée le
Ansible
Azure
Cassandra

3 ans
44k-70k €
400-700 €
Paris, France
Une maison de luxe internationale recherche un Expert Bases de Données afin de renforcer l’animation et l’expertise du domaine Databases au sein de ses équipes. Le poste s’inscrit dans un contexte de croissance des environnements relationnels et NoSQL, avec une présence internationale et des équipes réparties sur plusieurs continents. Le consultant contribuera à garantir la performance, la disponibilité et la sécurité des systèmes de bases de données critiques pour les applications de l’entreprise. Le consultant aura pour principales responsabilités : Administration & Maintenance Installer, configurer et mettre à jour les bases de données relationnelles (PostgreSQL, MySQL, MariaDB) et NoSQL (Cassandra). Assurer la maintenance préventive et corrective des systèmes. Optimisation des Performances Optimiser les requêtes, gérer les index et concevoir des schémas pour assurer une latence minimale. Garantir la performance des bases de données pour des charges applicatives importantes. Haute Disponibilité & Reprise après Sinistre Concevoir et mettre en œuvre des solutions de clustering, de réplication et de sauvegarde robustes. Modélisation & Support Développement Collaborer avec les équipes de développement pour choisir la base de données adaptée à chaque cas d’usage. Participer à l’audit et à la révision de la documentation existante. Sécurité & Conformité Implémenter des contrôles d’accès basés sur les rôles (RBAC), le chiffrement des données et la journalisation des audits. Rédiger une documentation claire et complète des systèmes de bases de données.
CDI

Offre d'emploi
ML/Data Engineer H/F

█ █ █ █ █ █ █
Publiée le
Apache Airflow
CI/CD
Github

Ville de Paris - Archives de Paris - Centre annexe, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Site Reliability Engineer

Codezys
Publiée le
Ansible
Azure
Git

12 mois
Paris, France
Compétences techniques : Définir et implémenter des mécanismes de monitoring et d’alerting permettant de détecter les dysfonctionnements à tous les niveaux (front-end, backend, ETL, data quality, connectivité) AWS : Prometheus, Cloudwatch (Logs, Metrics, Application Signals, Synthetics), PromQL, X-Ray, AWS Firewall Azure : Azure Monitor, KQL, Application Insights, Container Insights, Log Analytics Google Cloud Observability (metrics, cloud monitoring) Grafana : Contribuer à la résilience des applications en implémentant et testant des mécanismes de sauvegarde des données et de restauration des applications : bonne connaissance et expérience des mécanismes de sauvegardes natifs AWS et Azure pour les bases de données, datalake, stockage blob. Implémenter des scénarios de Chaos Engineering (type Chaos Monkey) sur les environnements de production sur Azure et AWS. Mise en place de Disaster Recovery Plan et participation à l’implémentation et aux tests des mécanismes associés (pipelines de déploiement, restauration de données à partir de sauvegarde, etc.). Travailler sur l’optimisation de la gestion des incidents pour réduire le MTTR : détection, notification aux utilisateurs et suivi, outils d’analyse (logging). Mettre en place des solutions techniques d’AIOps pour améliorer l’observabilité, la résilience et la gestion des incidents dans le groupe. Implémenter et utiliser des agents IA capables d'identifier les améliorations relatives à la fiabilité à mettre en place sur les projets, de détecter les dysfonctionnements et de résoudre les pannes. Contribuer à améliorer la fiabilité des produits par la promotion auprès des équipes de bonnes pratiques SRE. Soft skills : Aisance relationnelle et capacité de communiquer en anglais et en français à l’écrit et à l’oral. Capacité de présenter et expliquer des architectures techniques. Autonomie. Conditions : Télétravail possible : 2 jours par semaine. Locaux : une grande ville métropolitaine.
Freelance

Mission freelance
Data Analyst Lead – Gouvernance & Conception Data

Comet
Publiée le
Data Strategy
Databricks
Microsoft Power BI

300 jours
550-580 €
Châtillon, Île-de-France
Data Analyst Lead – Gouvernance & Conception Data Objectif global Renforcer l’expertise en analyse, conception et gouvernance des données au sein d’un DataLab, dans un contexte grande distribution multi-enseignes et multi-métiers. Livrables : - Expertise analytique et conception de solutions data - Contribution à la structuration des KPI métiers - Animation de la communauté Data Analyst - Participation à la Data Authority - Contribution au modèle de données commun Contexte de la mission : - Mission au sein d’un DataLab, rattachée à l’équipe Gouvernance des données. Environnement : - Grande Distribution - Multi-enseignes - Multi-métiers Enjeux forts de performance, qualité des données, modélisation et usages analytiques à grande échelle ⚠️ La connaissance opérationnelle de la Grande Distribution est impérative. Objectifs - Apporter une expertise avancée en data analyse et en conception de solutions data - Contribuer à la montée en compétence des Data Analysts - Accompagner les équipes produits et projets sur des problématiques analytiques complexes - Animer la communauté Data - Coanimer la Data Authority et les ateliers de gouvernance Missions principales : - Expertise en analyse de données et conception de solutions orientées data - Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions) - Structuration et alignement des KPI métiers - Animation de la communauté Data Analyst (ateliers, bonnes pratiques, REX) - Contribution et évolution du modèle de données commun - Coanimation des instances de gouvernance Data Compétences techniques attendues : Impératif : Connaissance confirmée de la Grande Distribution Enjeux business KPI clés : ventes, marge, stock, approvisionnement, performance magasin Usages métiers de la donnée Important Modélisation des données (confirmé) Analyse de données (confirmé) Conception de solutions data (confirmé) Stack & Environnement technique Big Data : - SQL - Databricks - Scala - Python Environnement Azure BI / Reporting : - Power BI - MicroStrategy Modélisation : - PowerDesigner Gouvernance & Qualité : - DataGalaxy - SODA (Data Quality / Observability) Méthodologie & outils : - SAFe (Agilité à l’échelle) - Jira Profil recherché - Data Analyst Senior / Lead - Forte capacité à challenger les solutions - Vision transverse et structurante - Capacité à fédérer une communauté - Aisance en animation d’ateliers - Posture d’expert référent
Offre premium
CDI
Freelance

Offre d'emploi
Administrateur Datadog

Lùkla
Publiée le
Datadog

3 mois
30k-60k €
400-650 €
Île-de-France, France
Le Challenge Au sein de notre Direction du Numérique, vous devenez le garant de la visibilité de nos infrastructures et applications. Votre mission ? Transformer la donnée brute en insights exploitables pour nos équipes métiers et services. Vous intervenez sur un écosystème technologique d'une richesse rare (Cloud, On-premise, Kubernetes, Legacy). Vos Missions : De l'ingénierie à l'action 🛠️ Déploiement & Configuration Installation & Setup : Déployer les agents Datadog et configurer les composants sur des environnements hybrides (Unix/Linux, Windows, PAAS AWS/Azure). Standardisation : Concevoir et maintenir des Templates (Dashboards, Monitors) de référence pour assurer une cohérence globale. Supervision 360° : Configurer la collecte de métriques, de logs et de traces pour monitorer la santé des applications en Recette et Production. 🚨 Pilotage de la Performance & Alerte Intelligence de l'alerte : Créer des monitors intelligents avec des seuils affinés avec les utilisateurs pour éviter la "fatigue d'alerte". Notifications & Escalade : Automatiser les alertes via Teams, WebHooks ou Emails et définir les processus de remédiation. Visualisation : Créer des cartes réseau et des dashboards temps réel pour une lecture immédiate de la performance. 📈 Accompagnement & Amélioration Continue Maintien en Conditions Opérationnelles (MCO) : Optimiser les performances de la supervision pour minimiser l'impact système et budgétaire. Support aux changements : Accompagner les projets dans leurs évolutions (migrations, décommissionnements) et aider à la résolution d'incidents critiques. Reporting : Analyser les tendances, générer des rapports d'activité et proposer des axes d'amélioration proactively. Votre Profil Les indispensables : Expertise Datadog : Vous maîtrisez parfaitement l'écosystème (Agents, Log management, APM, Metrics, Dashboards, Monitors). Culture Systèmes : Compétence confirmée en administration Linux/Unix et Windows . Esprit d'équipe : Vous aimez le partage de connaissances, le feedback régulier et le travail collaboratif. Les "plus" qui feront la différence : Automation/DevOps : Maîtrise du scripting (Python, Shell) et de l'Infrastructure as Code ( Terraform , Ansible). Connectivité : Utilisation d'APIs (REST, JSON, XML). Curiosité Technique : Notions sur Kubernetes, Docker, Kafka, SGBD (PostgreSQL, Oracle, NoSQL) ou Middleware (Tomcat, Tibco).
Freelance

Mission freelance
Expert data DataCloud (DataBricks) Nantes /st

WorldWide People
Publiée le
Databricks

12 mois
Nantes, Pays de la Loire
Expert data DataCloud (DataBricks) Nantes •Expertise des produits et outils du domaine DATACLOUD (DATABRICKS) •Expertise en analyse et réalisation dans la mise en place de projets décisionnels •Maîtrise des environnements techniques et des architectures associées •Maîtrise des différentes phases de développement d’un projet •Connaissance d’une méthode de tests •Maîtrise de la gestion de configuration logicielle •Maîtrise de la sécurité informatique du domaine Ce poste est ouvert à la pre-embauche DataCloud (DataBricks) Prestation d'Expert Data Tâches : •Assister à la rédaction des dossiers de conception, à la relecture et validation des spécifications techniques émises par les équipes de réalisation •Apporter une expertise technique/un support technique (résolution de problèmes en production, mise en œuvre de nouvelles fonctionnalités, étude de DFB, etc.) : •Apporter de l’expertise sur les projets en cours de développement •Apporter de l’expertise sur des problématiques en production •Proposition et test de solutions, mise en œuvre de solutions de contournements, dossier de préconisations, etc… •Support assuré auprès des équipes projet, de l’exploitant, de l’AMOA, etc. •Rapports d’études •Apporter des améliorations dans le code, les tests, les configurations •Auditer le code et préconiser des améliorations •Apporter de l’expertise/support lors de migrations de données •Optimiser des traitements, des bases de données •Gérer les patchs éditeurs •Assister (expertise) les développeurs et intervenir en support N1/N2, notamment en réalisant les travaux les plus complexes •Apporter son expertise et son conseil à la définition et mise à jour de l’architecture Applicative •Participer au dimensionnement d’une architecture •Participer au choix d’une solution •Apporter des connaissances sur l’état de l’art du marché •Etre force de proposition pour la création ou l’évolution de plateformes mutualisées en fonction de l’évolution du marché et des nouveaux besoins •Proposer, construire, alimenter et diffuser les outils de capitalisation, d’industrialisation et de mutualisation tels que les guides de bonnes pratiques, des bilans de projets, des retours d’expérience •Participer au développement/à la formation des compétences des collaborateurs pour améliorer les connaissances et le savoir- faire collectifs •Participer à l’homologation et l’accessibilité technique •Rédiger ou mettre à jour la documentation utilisateur, les supports de formation •Concevoir des actions et des supports de formation •Préparer et réaliser les sessions de formation •Préparer la communication ou communiquer vers les contacts Métiers des évolutions Compétences : •Expertise des produits et outils du domaine DATACLOUD (DATABRICKS) •Expertise en analyse et réalisation dans la mise en place de projets décisionnels •Maîtrise des environnements techniques et des architectures associées •Maîtrise des différentes phases de développement d’un projet •Connaissance d’une méthode de tests •Maîtrise de la gestion de configuration logicielle •Maîtrise de la sécurité informatique du domaine
Freelance

Mission freelance
Développeur KOTLIN FLUTTER AWS

Cherry Pick
Publiée le
Dart (langage)
Flutter
Kotlin

12 mois
Paris, France
Contexte L’équipe Webana/Data & outils est l’équipe qui met en place l’ensemble du tracking quand on lance des nouvelles offres ou des nouvelles fonctionnalités. Ce tracking permet aux différentes équipes de suivre la performance des parcours et les éventuelles optimisations possibles. Il alimente également beaucoup d’autres outils digitaux exploités par les équipes métiers (Adobe Analytics, CDP, Outil d’attribution). C’est aussi cette équioe qui gère le consentement RGPD sur le site et l’application. Dans le cadre du changement d’outil d’attribution pour les équipes Marketing, afin d’être en mesure d’ absorber la charge supplémentaire, l’équipe Webana recherche un dev full stack qui viendra en renfort dans l’équipe tech déjà composée de 3 développeurs. (Un outil d’attribution marketing est une solution qui permet de mesurer la performance des investissements marketing, de piloter les budgets médias et d’optimiser les campagnes d’acquisition de trafic) Description Dans un contexte d'équipe agile (et d'applications à fort trafic), le développeur Full stack conçoit, développe, déploie et maintient les fonctionnalités front user afin de répondre aux exigences fonctionnelles exprimées dans le cadre de la conception de solutions ou d'applications. Le développeur Full stack est capable d'intervenir sur la partie "front" et sur la partie "back" des applications, mais aussi sur la partie CI/CD. Il maîtrise les langages de développement de front et de back, ainsi que les framework les plus utilisés et les bonnes pratiques de développement de ces deux parties. Livrables Ses principales missions seront de faire évoluer le datalayer déjà en place pour passer de la donnée au TMS Tealium qui lui l’enverrait au partenaire de la solution d’attribution, créer des tests d’intégration pour assurer le suivi de la qualité de donnée travailler en collaboration sur la mise en place du tracking avec d’autres équipes techniques, notamment Produit, et leur apporter son expertise être en relation directe quand cela est nécessaire avec les équipes techniques de la solution d’attribution échanger directement avec ses pairs en interne (ref experts, lead tech…) proposer des solutions techniques permettant de pérenniser la fiabilité de la donnée assister aux cérémonies agiles avec l’équipe remonter des alertes quand cela est nécessaire Compétences Compétences Backend : - Kotlin - Spring Boot - AWS (Connaissances ) Front end Web: - Typescript - React Mobile: - dart - Flutter Compétences clés Obligatoire Kotlin SpringBoot AWS Important Dart
Freelance

Mission freelance
[FBO] Expert VTOM - Ordonnancement et production- Saint Denis - 1369

ISUPPLIER
Publiée le

9 mois
500-590 €
Saint-Denis, Île-de-France
L’objectif de la mission : • Définir et faire évoluer l’architecture VTOM en relation avec les architectes techniques •Administrer les plateformes VTOM •Assister et conseiller les équipes projets sur les différentes solutions référencés au catalogue •Assurer du support de N2 et N3 pour les Solutions Métier •Mettre en place en intégration les chaines d’ordonnancement. •Être en support N3 des équipes de production •Définir/modifier les bonnes pratiques de l’utilisation de l’ordonnanceur •Participation à la conception des feuilles de route techniques •Suivre l’obsolescence des composants •Assure la veille technologique Environnement fonctionnel et technique : Environnement : Hébergement Datacenter et cloud (Aws, Azure) SGBD Oracle, Micrososft Sql Server, Postgresql, Ingres 9.2 sur Solaris, NoSQL Couchbase, Redis, MONGODB, PAAS SGBD (AWS et Azure) Serveurs Unix Solaris / AIX, Linux Suse / Red Hat / Centos / Ubuntu, Windows Server Middlewares Apache, Tomcat, Weblogic, CFT, MQ Server, SFTP, JMS, VTOM, suite logicielle TIBCO, Networker, Oracle Tuxedo Plateformes/ logiciels / Outils Teraform, Jenkins, Ansible, squash TM, Postman, Docker, Kubernetes, Databricks, Script Shell, Python Supervision Nagios, Datadog, Splunk Résultats attendus et/ou livrables avec échéancier si besoin •Rédaction de documentation •Respect de la sécurité •Compte rendu d’activité mensuel •Respect des engagements sur les délais et la qualité des propositions •Reporting
Freelance

Mission freelance
[FBO] Ingénieur Cloud AWS / GCP - Guyancourt - 1201

ISUPPLIER
Publiée le

5 mois
300-545 €
Guyancourt, Île-de-France
La mission de support et d'expertise se déroulera principalement sur le site avec 2 jours de télétravail/semaine. Assurer le support technique niveau 3 des infrastructures Cloud AWS et GCP ; Réaliser les demandes de change en production ; Réaliser les demandes de demande de droit ; Réaliser et ou mettre à jour les documentations des opérations de RUN ; Réaliser les corrections des vulnérabilités en production ; Réaliser les corrections de l’obsolescence en production ; Suivre l’activité avec les équipes internationales de RUN ; Réaliser la montée en compétence des équipes international de RUN ; La maitrise de l’anglais oral et écrit est nécessaire, aussi amenés à rédiger des dossiers en anglais à destination des équipes France et Internationale. En tant qu’Ingénieur RUN, les missions principales seront de : Assurer le support niveau 3 ; Établir l’analyse et le diagnostic sur les incidents et les éradiquer ; Rédiger ou participer à la rédaction des dossiers de process support, post mortem générale et/ou détaillée ; L'expertise attendue : • Expertise et expérience significative sur Terraform. • Expertise sur le Cloud AWS et GCP. • Maitrise des outils de déploiement automatisés • Pipeline CI CD (gitlab-ci, ansible, AWX, jenkins etc.), language python • Connaissance sur les technologies kubernetes
Freelance
CDI

Offre d'emploi
Développeur Front-End Angular Senior (H/F) – Angular 18+

Capital Informatique
Publiée le
Angular
Angular Material
AWS Cloud

6 mois
45k-55k €
500-550 €
Poissy, Île-de-France
Développeur Angular Senior Dans le cadre de projets stratégiques de transformation digitale, nous recherchons un Développeur Front-End Angular Senior (H/F) disposant d’une expertise confirmée sur Angular 18+ et les architectures front-end modernes. Vous interviendrez au sein d’équipes organisées en feature teams Agile , composées de développeurs front-end, back-end et full-stack, et participerez au développement d’applications web performantes, évolutives et maintenables. Vos principales responsabilités : Développer des interfaces utilisateurs avec Angular 18+ , TypeScript et RxJS Concevoir des composants front-end performants et réutilisables Participer aux choix techniques et à l’architecture front-end Garantir la qualité du code (clean code, bonnes pratiques, performance) Participer aux cérémonies Agile : sprint planning, daily meetings, reviews Contribuer à l’amélioration continue et aux bonnes pratiques de développement

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

5178 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous