Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 704 résultats.
Offre d'emploi
Architecte GCP H/F
Le Groupe SYD
Publiée le
Ansible
CI/CD
Git
6 mois
55k-65k €
600-800 €
Bordeaux, Nouvelle-Aquitaine
🌟 Quel sera ton poste ? 🌟 📍Lieu : 🏠 Télétravail : 📝Contrat : 👉 Contexte client : Tu rejoins un environnement technique moderne et orienté Cloud public, dans lequel les pratiques DevOps, l’automatisation et l’industrialisation des pipelines sont au cœur des enjeux. En tant qu’ Architecte DevOps Cloud Public , tu interviens sur la conception, l’optimisation et la sécurisation des plateformes Cloud tout en garantissant la cohérence des bonnes pratiques DevOps au sein des équipes techniques. Tu auras pour missions de : Définir et mettre en œuvre des architectures Cloud public basées sur GCP . Industrialiser, automatiser et sécuriser les chaînes CI/CD , du développement au déploiement. Mettre en place, maintenir et optimiser l’infrastructure as code via Terraform . Accompagner les équipes techniques dans l’adoption des bonnes pratiques DevOps et Cloud. Déployer et administrer les outils d’automatisation et de configuration, notamment Ansible . Piloter les évolutions, standardiser les environnements et garantir la fiabilité et la performance des plateformes Cloud. Assurer une veille technique proactive autour des services Cloud, de la sécurité et des frameworks DevOps. 🧰 Stack technique : Cloud public : GCP (obligatoire) . DevOps : bonnes pratiques CI/CD, Git. Infrastructure as Code : Terraform . Automatisation : Ansible . Environnements : architectures Cloud public, pipelines CI/CD industrialisés.
Mission freelance
Lead Tech Python – GenAI (H/F)
HOXTON PARTNERS
Publiée le
AWS Cloud
GenAI
Python
10 mois
550 €
Massy, Île-de-France
Dans le cadre de la mise en place d’une GenAI Factory au sein d’un grand acteur bancaire, nous recherchons un Lead Tech Python expérimenté. La mission consiste à intervenir comme référent technique auprès d’une équipe de développeurs GenAI afin de renforcer la qualité et la robustesse des développements Python. Le consultant participera activement au développement, challengera les choix techniques, diffusera les bonnes pratiques (architecture, structuration de code, tests, performance) et recommandera les librairies adaptées aux cas d’usage IA générative (LLM, RAG, orchestration, etc.). Une expérience concrète en développement sur des projets Generative AI est indispensable. Une connaissance d’environnements cloud, idéalement AWS, est fortement appréciée.
Mission freelance
Data Architecte AWS / Iceberg
Atlas Connect
Publiée le
Apache Airflow
Apache Spark
API
12 mois
590-600 €
Île-de-France, France
Data Engineer Senior afin d’accompagner la conception, l’industrialisation et l’évolution de ses solutions data. Le prestataire interviendra sur les sujets d’architecture, de modélisation, d’optimisation des pipelines et contribuera activement à la stratégie Lakehouse de l’entreprise. Missions principales Concevoir, développer et optimiser des pipelines de données à grande échelle. Mettre en œuvre des flux batch , streaming et ingestion via API . Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold). Développer et industrialiser les pipelines via DBT , Spark et Iceberg . Contribuer à l’évolution de l’architecture Lakehouse de l’entreprise. Déployer et maintenir les pipelines dans un environnement cloud (AWS ou équivalent). Orchestrer les workflows ETL/ELT via Airflow . Mettre en œuvre l’ Infrastructure as Code ( Terraform ). Exécuter les traitements dans des environnements conteneurisés ( Docker , Kubernetes ). Garantir la disponibilité, la supervision et l’observabilité des traitements. Participer à la gestion des incidents et à l’amélioration continue. Définir et mettre en œuvre les règles de qualité des données (tests, validation, contrôles automatisés). Documenter les architectures, pipelines et règles métier. Garantir la conformité des flux, notamment dans le cadre RGPD .
Offre d'emploi
DevSecOps Azure - Transformation
KLETA
Publiée le
Azure
GitLab CI
Terraform
3 ans
Paris, France
Dans le cadre de programmes de transformation numérique, nous recherchons un DevSecOps Azure pour accompagner nos clients dans l’adoption de pratiques de sécurité cloud modernes et industrialisées. Vous interviendrez sur des missions d’audit, de cadrage et de mise en place de dispositifs DevSecOps adaptés aux contraintes techniques et réglementaires. Vous analyserez les environnements existants, identifierez les risques et proposerez des trajectoires d’amélioration en matière de sécurité et d’automatisation. Vous participerez à l’intégration de contrôles de sécurité dans les pipelines CI/CD, à la mise en place de politiques de conformité via Azure Policy et à l’automatisation des processus via Infrastructure as Code. Vous accompagnerez également les équipes client dans leur montée en compétence sur Azure et les pratiques DevSecOps, en animant des ateliers et en diffusant les bonnes pratiques. Votre rôle combinera expertise technique et conseil, avec une forte capacité à adapter votre discours à des interlocuteurs variés (techniques, sécurité, exploitation et métiers).
Mission freelance
Architecte Data – Azure/Databrics
Hexagone Digitale
Publiée le
Azure
Azure Data Factory
BI
6 mois
450-550 €
Paris, France
Dans le cadre du renforcement de sa Data Factory, un grand groupe international accélère la structuration de sa plateforme data sur Microsoft Azure avec un usage central de Databricks pour le traitement, la transformation et la valorisation des données. L’environnement s’inscrit dans une logique Data Lake , organisation Bronze / Silver / Gold et montée en maturité data à l’échelle groupe. Mission L’Architecte Data interviendra sur la conception et l’industrialisation de la plateforme data Azure. Ses responsabilités principales : Concevoir et faire évoluer l’architecture data sur Azure Structurer et optimiser les pipelines data via Databricks (Spark) Mettre en place les traitements de transformation et d’agrégation Modéliser les données pour les usages analytiques Garantir performance, scalabilité et qualité des flux Participer aux ateliers de cadrage technique avec les équipes métiers et IT Contribuer aux standards d’architecture et aux bonnes pratiques data Compétences clés (Must Have) Databricks (obligatoire) Azure (Data Lake, Synapse, Data Factory) Spark / PySpark SQL avancé Architectures Data Lake – Bronze / Silver / Gold Conception de pipelines data industrialisés Modélisation Data Warehouse Compétences appréciées (Nice to Have) Power BI DAX MDM (Master Data Management) Data Quality / Gouvernance Data Mesh Azure DevOps / Git ERP (SAP) Profil recherché 5 à 10 ans d’expérience en Data Engineering / Architecture Data Expérience confirmée sur des environnements Azure + Databricks Capacité à intervenir sur des environnements data complexes Autonomie technique et posture structurante Bon relationnel et capacité à challenger les choix d’architecture Environnement de travail Cloud : Microsoft Azure Traitement data : Databricks, Spark Stockage : Azure Data Lake Gen2 Orchestration : Azure Data Factory BI (selon besoins) : Power BI Gouvernance (selon périmètre) : MDM / Data Quality Conditions de la mission Lieu de la mision : Paris Mission longue : 6 à 12 mois renouvelables Temps plein Télétravail partiel possible Démarrage rapide TJM : 450-550€
Mission freelance
[MDO] Salesforce Fiel Services
ISUPPLIER
Publiée le
Apex
2 ans
400-460 €
78000, Versailles, Île-de-France
Contexte : Au sein de la verticale RACCORDEMENTS de la DSI, cette mission a pour domaine la maitrise d'œuvre du système I360, qui se base sur Salesforce Field Service. C'est un système de « Field Service Management » pour les partenaires mandatés par le client pour installer et dépanner ces box fibre. Il gère la planification, l’optimisation et le dispatch des interventions FTTH. Le système communique avec le reste du SI par des appels de web services, gérés par un système interne de médiation. Nous sommes actuellement en train de migrer l'application mobile initialement utiliser par les techniciens pour le SAV et le Raccordement de nos clients à la fibre par l'application mobile de fied services. Dans ce contexte le client cherche à renforcer son équipe par un expert field services.
Mission freelance
Ingénieur de production aws / terraform / cicd
ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud
CI/CD
Production
3 ans
400-630 €
Paris, France
CONTEXTE Notre client est garant du bon fonctionnement des solutions billettiques. C’est dans ce contexte que le service ESI (Exploitation du Système d’Informations), au sein de la Direction Exploitation et Infrastructure, s’assure du maintien en condition opérationnelle et des activités en Production relatives à l’ensemble des applications du SI. Cela implique notamment de garantir la disponibilité des systèmes pour les équipes internes, les fournisseurs et les usagers. OBJECTIFS ATTENDUS Rattaché(e) au responsable du service ESI, vous serez polyvalent(e) sur l’ensemble des activités, avec une mission de référence sur l’évolution et le maintien de l’architecture technique et du socle technique. Vous interviendrez au sein de l’équipe afin de : • Intervenir sur les évènements de Production (incidents, demandes, maintien du SI) • Exploiter des plateformes hébergées dans le Cloud AWS • Garantir des mises en production via l’infrastructure As Code • Contribuer aux projets de mise en place de nouvelles solutions et fonctionnalités et de leur évolution
Mission freelance
Développeur NodeJS / Intégrateur PSP
SURICATE IT
Publiée le
AWS Cloud
Node.js
PSP
3 mois
350-380 €
Paris, France
Missions & Stack Core : Développement backend robuste avec NodeJS et TypeScript . Infrastructure : Déploiement et gestion via AWS Amplify & AWS Lambda Méthodologie : Approche AI-Driven (tu sais utiliser l'IA pour coder plus vite et mieux). Profil recherché Expertise Paiement : Une solide culture des PSPs (Stripe, Adyen, etc.) Mindset : Une bonne dose de patience (essentielle pour les phases de debug et les itérations). Autonomie : Capacité à prendre des décisions techniques sur un environnement cloud simplifié.
Offre d'emploi
Ingénieur DevOps (/Intégrateur) AWS & Kubernetes
CELAD
Publiée le
38k-52k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement dans le Sud-Est et recrutons un Ingénieur DevOps / Intégrateur Cloud (AWS, Kubernetes, scripting) pour l’un de nos clients situé à La Ciotat. Au sein de l’équipe Cloud, vos missions seront les suivantes : - Concevoir, développer et maintenir une infrastructure hybride exigeante (AWS, GCP, Datacenters privés) à haute disponibilité et évolutivité - Développer et maintenir le déploiement continu en automatisant également le déploiement du code vers les environnements de test, de préproduction et de production - Mettre en place des pratiques et des outils pour permettre une intégration continue du code source dans le référentiel principal, facilitant des déploiements plus fréquents et plus fiables - Mettre en œuvre une surveillance, sauvegarde, restauration et mise à l'échelle rapide et sécurisée - Intégrer les solutions applicatives dans l’écosystème existant - Rédiger de la documentation technique (spécification, conception, description de l'API, guide de l'utilisateur, etc.) - Développer, maintenir et automatiser toutes les opérations : alerte, information client, monitoring, etc. - Fournir une visibilité à la direction et au responsable de l'architecture sur l'avancement des missions - Contribuer au partage des connaissances Vous n’êtes pas uniquement “build”, vous êtes aussi facilitateur, capable d’expliquer, coordonner et faire avancer les sujets.
Offre d'emploi
technicien Helpdesk
AIS
Publiée le
Active Directory Domain Services (AD DS)
Administration réseaux
Google Cloud Platform (GCP)
1 an
21k-26k €
260-280 €
Ancenis, Pays de la Loire
- Accueillir les sollicitations de nos utilisateurs internes par téléphone ou via un portail de création de tickets - Diagnostic de support niveau 1 - Traiter les incidents et les demandes de niveau 1 - Installation d'applications - Gestion des droits utilisateurs - Appliquer des procédures ou dépanner les incidents remontés par les utilisateurs ou par la supervision - Escalader les tickets à des niveaux de support différents suivant un référentiel - Envoyer des communications en suivant une procédure - Documenter dans une base de connaissances les informations recueillies
Offre d'emploi
Architecte Technique Expert Infrastructure Azure
Gentis Recruitment SAS
Publiée le
Azure Kubernetes Service (AKS)
12 mois
40k-45k €
400-550 €
Île-de-France, France
Architecte Technique Expert Infrastructure Azure Description du poste Dans un environnement international et fortement orienté cloud, l’Architecte Technique Expert Infrastructure est responsable de la conception, de l’évolution et de la gouvernance des architectures techniques autour des plateformes Microsoft Azure et des infrastructures hybrides. Il intervient sur des projets stratégiques de transformation et garantit la cohérence, la sécurité et la performance des solutions mises en place. Le poste implique une collaboration étroite avec les équipes infrastructure, sécurité, réseaux, DevOps et les équipes projets afin d’assurer l’alignement entre les besoins métiers et les solutions techniques. Responsabilités principales Architecture et conception Définir les architectures techniques Azure et infrastructures hybrides Concevoir des solutions robustes, scalables et sécurisées Garantir la cohérence des architectures avec les standards du groupe Participer aux choix technologiques et aux roadmaps techniques Gouvernance technique Définir et maintenir les standards d’architecture infrastructure Produire les dossiers d’architecture technique (DAT, HLD, LLD) Valider les architectures proposées dans les projets Assurer la conformité avec les exigences sécurité et cloud Accompagnement des projets Apporter une expertise technique aux équipes projets Participer aux phases d’avant-vente et cadrage technique Supporter les équipes opérationnelles lors des déploiements Contribuer à la résolution d’incidents complexes Innovation et amélioration continue Identifier les opportunités d’optimisation et de modernisation Participer aux initiatives de transformation cloud Assurer une veille technologique sur les solutions cloud et infrastructure Compétences techniquesCloud & Infrastructure Microsoft Azure Architecture Cloud hybride Landing Zone Azure IaaS / PaaS Azure Networking Azure Storage Azure Virtual Machines Azure Kubernetes Service (AKS) Infrastructure & systèmes Windows Server Linux Virtualisation (VMware / Hyper-V) Active Directory / Azure AD / Entra ID DNS / DHCP Gestion des identités et des accès (IAM) Réseau Architecture réseau VPN / ExpressRoute Load Balancing Network Security Groups Firewalling DevOps / automatisation Infrastructure as Code (Terraform / Bicep / ARM) CI/CD Git Automatisation PowerShell / Bash Sécurité Cloud Security Identity & Access Management Zero Trust Compliance et gouvernance cloud Compétences transverses Architecture d’entreprise Analyse et résolution de problèmes complexes Communication avec équipes techniques et métiers Documentation d’architecture Leadership technique Profil recherché Expérience significative en architecture infrastructure ou cloud Expertise sur Microsoft Azure Expérience dans des environnements IT complexes et internationaux Capacité à intervenir sur des projets de transformation cloud
Offre d'emploi
DATA ENGINEER GCP
UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform (GCP)
MySQL
6 mois
40k-71k €
400-630 €
Paris, France
Je recherche pour un de mes clients un Data Engineer GCP : Prestations attendues : Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels Accompagner les utilisateurs dans leurs usages Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe Construire et maintenir des pipelines data robustes et scalables Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l’évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data Compétences solides en data : structures de données, code, architecture France Expériences dans la conception et la réalisation de pipelines data Expériences dans un environnement du cloud Google (GCP) Expériences intégrant BigQuery et Dataplex Universal Catalog Expériences intégrant les langages Python et SQL Expériences intégrant Spark Expériences intégrant dbt Expériences intégrant Terraform et Terragrunt Expériences intégrant Gitlab et Gitlab CI/CD Expériences intégrant les méthodologies Agile : Scrum ou Kanban Capacité à vulgariser et à communiquer sur des aspects purement techniques
Mission freelance
Expert observabilité datadog
Cherry Pick
Publiée le
AWS Cloud
Datadog
12 mois
550-600 €
Paris, France
Vos principales missions : 1. Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier des axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, structure des dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les différentes équipes Optimiser l’usage de la plateforme (volumétrie logs, sampling APM, gestion des coûts, rétention)Fiche de poste Expert Observabilité Datadog Définir et partager des bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus / Grafana utilisés pour les métriques techniques 2. Supervision, observabilité et fiabilité (SRE) Concevoir, mettre en œuvre et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, meilleure corrélation incidents) Formaliser des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et service management Améliorer la détection proactive des incidents Assurer la complémentarité et la cohérence entre métriques Prometheus/Grafana et observabilité Datadog 3. Accompagnement des équipes et adoption Une forte dimension transverse et pédagogique est attendue : Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir une documentation claire sur les standards et recommandations définis
Mission freelance
Architecte Logiciel Senior Java / Spring
NEXORIS
Publiée le
Angular
Java
Spring
12 mois
650 €
Paris, France
Notre client recherche un Architecte Logiciel Senior Java / Spring (H/F) dans le cadre d'une longue mission. Au sein de la DSI , la mission consiste à renforcer le pôle d’architecture logicielle pour accompagner les projets stratégiques et les transformations techniques (modernisation, migration, IA). - Concevoir l’architecture logicielle des applications SI (performance, sécurité, exploitabilité) - Superviser et valider les architectures proposées par les équipes projets - Accompagner les équipes dans l’utilisation des frameworks et les migrations techniques (Java 8 → 17, Spring Boot, conteneurisation - Organiser et piloter des revues de code et de conception technique - Promouvoir les bonnes pratiques (modularité, gestion des dépendances, qualité logicielle) - Apporter une expertise technique avancée pour résoudre des problématiques complexes - Mettre en place une démarche de contrôle continu de la qualité logicielle - Accompagner la DSI dans l’intégration et l’usage de l’IA (outillage ou composants logiciels) - Participer à la définition de l’architecture d’un nouveau portail Individu Livrables - Documents d’architecture logicielle - Revues de conception technique - Revues de code - POC (Proof of Concept) - Études techniques - Formalisation de la dette technique - Guides de bonnes pratiques
Mission freelance
Responsable d’Applications (Expert) – Supply Chain / Transport & Entrepôt
HAYS France
Publiée le
BigQuery
Google Cloud Platform (GCP)
Java
3 ans
100-480 £GB
Lille, Hauts-de-France
Nous sommes à la recherche d’un profil type Responsable d’applications expérimenté pour renforcer l’équipe déjà en place sur le périmètre de la Supply Chain pour les achats internationaux Dans le cadre de cette mission, il travaillera dans une équipe « Build&Run » en lien étroit avec nos utilisateurs en France et à l'étranger, les équipes d'organisation métier, les administrateurs métier, les experts IT (infrastructure & production, sécurité, architecte, ) et nos partenaires externes (partenaires logistiques, éditeurs de solution SaaS,...) La durée de cette mission est à minima d’un an et se déroule sur le site de Ronchin: Terradeo Sur les produits digitaux qui lui seront confiées, la mission proposée sera de : - Assurer le maintien en conditions opérationnelles. La satisfaction utilisateur est primordiale. - Suivre et piloter l’activité : partage d’indicateurs, plan d’actions préventives, correctives et gestion des demandes d’évolutions et de service, respect des SLAs. - Travailler en collaboration avec les autres membres de la team IT et plus particulièrement le Product Owner, les développeurs et les Responsables d’applications sur d’autres périmètre que le sien. - Proposer et mettre en place des solutions afin d’améliorer la qualité de service rendue aux utilisateurs - Mettre en production des nouvelles versions et ou des projets de sécurisation du SI avec des enjeux de disponibilité et de performance. - Maîtriser le paramétrage et les flux des solutions à maintenir et leur plan de production. - Être en proximité des collaborateurs métiers qu’il dessert. Voir fe fichier en pièce jointe pour connaitre les compétences exactes recherchées.
Offre d'emploi
Tech lead Scientist
Hexateam
Publiée le
AWS Cloud
Machine Learning
Pandas
1 an
Paris, France
Missions principales Encadrer et accompagner les Data Scientists du pôle IA Concevoir, développer et optimiser des modèles de Data Science, Machine Learning et Deep Learning Participer à la mise en place d’algorithmes créateurs de valeur à partir des données de l’entreprise Développer des scénarios prédictifs Améliorer les modèles NLP utilisés pour la compréhension des messages utilisateurs Réaliser le nettoyage, la structuration et l’enrichissement des données et des intentions Mettre en œuvre des modèles de classification de type BERT ou équivalent Travailler sur des approches de word embeddings Mesurer et analyser les performances théoriques et réelles des modèles développés Intégrer les contraintes réglementaires et les exigences de conformité dans les propositions de valeur Contribuer à la veille technologique et à l’innovation sur les sujets IA Compétences attendues Très bonne maîtrise des concepts de statistique, machine learning et deep learning Solide expérience dans la mise en œuvre de modèles de Data Science performants et industrialisables Bonne compréhension des enjeux stratégiques et métiers Capacité d’analyse, de synthèse, d’autonomie et forte force de proposition Maîtrise de Python, Pandas, Hugging Face, PyTorch et Git Connaissance des techniques de réduction de dimension telles que t-SNE ou UMAP Connaissance des environnements AWS , notamment SageMaker Sensibilité forte aux sujets d’innovation, de qualité et de performance des modèles Livrables attendus Scénarios prédictifs Modèles NLP optimisés pour la compréhension des messages utilisateurs Modèles de classification entraînés et évalués Analyses de performances et recommandations d’amélioration Solutions conformes aux exigences techniques, métier et réglementaires
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1704 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois