Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 687 résultats.
Mission freelance
Data Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) /sa
WorldWide People
Publiée le
DBT
Informatica
Snowflake
6 mois
400-500 £GB
Bordeaux, Nouvelle-Aquitaine
Data Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) Bordeaux pour diriger la migration d'IICS vers DBT sur Snowflake. Connaissance approfondie d'IICS et de dbt : maîtrise parfaite des deux outils. Spécialisation en validation : expérience dans la vérification de la parité des données 1:1 à l'aide d'outils tels que dbt_audit_helper.) Stack : Snowflake, dbt, IICS et Airflow (pour l'orchestration). 5 à 10 ans d’expérience Anglais obligatoire Démarrage : asap Durée : min 3 mois Localisation : Bordeaux de préférence sinon France L'équipe recherche un data Engineer senior pour diriger la migration d'IICS vers DBT sur Snowflake. Le candidat idéal doit jouer le rôle de « traducteur » : il doit être capable de lire des mappages IICS hérités complexes (logique de rétro-ingénierie) et de les refactoriser en modèles SQL DBT modulaires et propres. Compétences requises : Connaissance approfondie d'IICS et de dbt : maîtrise parfaite des deux outils. Spécialisation en validation : expérience dans la vérification de la parité des données 1:1 à l'aide d'outils tels que dbt_audit_helper.) Stack : Snowflake, dbt, IICS et Airflow (pour l'orchestration).
Mission freelance
Architecte Sécurité Azure/GCP
Groupe Aptenia
Publiée le
Architecture
Azure
Cybersécurité
3 ans
Paris, France
Mission d’ Architecte Sécurité Cloud au sein d’un grand groupe international du secteur des services. Le rôle consiste à définir et mettre en œuvre la stratégie de sécurité cloud sur des environnements principalement Microsoft Azure , avec une exposition complémentaire à GCP . L’architecte intervient sur la sécurisation des architectures, la gouvernance, les bonnes pratiques et la conformité , en collaboration avec les équipes cloud et sécurité. Il participe également à la définition des standards, des contrôles de sécurité et des modèles d’architecture sécurisés pour les plateformes cloud du groupe.
Offre d'emploi
Architecte Data GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data GCP pour définir et piloter l’évolution des plateformes de données cloud natives sur Google Cloud. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies GCP tels que BigQuery, Dataflow, Pub/Sub, Cloud Storage, Dataproc ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur GCP.
Offre d'emploi
Chef de Projet IT
VISIAN
Publiée le
Cloud
IA
1 an
40k-45k €
400-500 €
Île-de-France, France
Descriptif du poste Le bénéficiaire souhaite une prestation d'accompagnement dans l'objectif d'assurance de pilotage de projets IT transverses de portée Groupe. Les missions sont : En responsabilité d'un projet de Production IT pour répondre à des recommandations de la BCE et également pilotage de sujets IA Cadrage du projet en réponse à l'expression de besoin Planification et organisation du projet Pilotage par les livrables et par les jalons Participation à des comités d'investissement et de validation (collecte des informations et préparation du support) Participation à des comités de pilotage (préparation du support, animation, CR) Gestion des risques (identification, qualification et plan d'actions) Définition du service (description de l'offre de service, élaboration du RACI et du processus de RUN) Gestion de la transition vers le Service Delivery Reporting (hebdo et mensuel) vers le sponsor du projet et le management Compréhension des sujets et enjeux de la production IT Compréhension des architectures associées
Mission freelance
Data Engineer GCP
Nicholson SAS
Publiée le
Apache Airflow
BigQuery
CI/CD
18 mois
450 €
Saint-Ouen-sur-Seine, Île-de-France
Bonjour, Dans le cadre d’un projet stratégique pour notre client, nous recherchons un Data Engineer GCP sénior pour rejoindre les équipes DST DataLab . Contexte de la mission: Vous interviendrez au sein d’une équipe data engagée dans la construction et l’optimisation de chaînes de traitement et d’intégration de données sur l’environnement Google Cloud Platform . La mission s’inscrit dans un contexte de structuration et de fiabilisation des flux de données , avec un fort enjeu autour de la qualité, de la performance et de la gouvernance. Informations pratiques: Localisation : Saint-Ouen-sur-Seine Présence sur site : 2 à 3 jours par semaine (obligatoire) Démarrage : 20 avril 2026 Fin de mission : 31 décembre 2027 TJM maximum : 450 € Missions: Concevoir et développer des pipelines de traitement de données sur GCP Mettre en place et maintenir des chaînes d’intégration et de transformation de données Travailler sur l’optimisation et la structuration des bases de données analytiques Participer aux choix d’architecture et aux bonnes pratiques de développement Garantir la qualité, la performance et la fiabilité des flux de données Collaborer étroitement avec les équipes data, architecture et métiers Stack technique: Compétences requises GCP Dataform (prioritaire) ou DBT BigQuery SQL (maîtrise avancée) Python Apache Airflow CI/CD Google Cloud SQL Google Cloud Run Compétences appréciées: Architecture applicative Expérience autour des APIs, IHM et exposition de données Expérience avec Cloud Run / Cloud SQL ou Kubernetes (JKS) Profil recherché: Data Engineer avec 5 ans d’expérience minimum Solide expérience sur les environnements data cloud Capacité à travailler dans un cadre structuré avec des méthodes de développement rigoureuses Excellentes soft skills : communication, autonomie, esprit d’équipe et sens de l’organisation
Mission freelance
DevOps GCP - Rennes
Intuition IT Solutions Ltd.
Publiée le
DevOps
Google Cloud Platform (GCP)
6 mois
400 €
Rennes, Bretagne
1. Contexte du besoin Le client recherche un Consultant DevOps pour rejoindre une équipe existante de 3 DevOps . Cette équipe intervient sur la ligne de produits “Gestion Commerciale en magasin” , solution de back‑office utilisée quotidiennement par plus de 1400 magasins pour la gestion des produits, prix, stocks, commandes, inventaires, balances, traçabilité et étiquettes électroniques..pdf) La mission implique des interventions sur deux environnements : Serveurs Windows en magasins Solutions Cloud, idéalement GCP (Google Cloud Platform) 2. Profil recherché Type : Consultant DevOps Séniorité : 5 ans minimum Capacité attendue : Forte autonomie + esprit collectif
Offre d'emploi
Senior Cloud Security Engineer – Azure / GenAI (H/F)
AVA2I
Publiée le
Microsoft Copilot Studio
Azure AI
CI/CD
3 ans
Île-de-France, France
Dans le cadre de programmes stratégiques autour de l’ IA de nouvelle génération (GenAI) , notre client grand compte du secteur bancaire renforce ses équipes avec un expert technique en cybersécurité et DevSecOps , très orienté mise en œuvre concrète des contrôles de sécurité sur Azure / Microsoft . Vous rejoignez une équipe internationale mature, déjà dotée de profils GRC et pilotage . 👉 Ce poste n’est pas un rôle de chef de projet ni de GRC : la valeur attendue est 100 % technique . 🎯 Priorité absolue : experts cyber capables de sécuriser des cas d’usage GenAI / LLM / agentiques en production , dans un contexte bancaire exigeant (sécurité, conformité, data sensible) . Vos missions (périmètre technique) Vous interviendrez en support technique avancé pour la sécurisation de la stack IA du client : 🔹 Sécurité des plateformes GenAI sur Azure Azure AI & Cognitive Services Azure OpenAI (si utilisé) Azure Machine Learning Microsoft Fabric, Power Platform, M365 Intégrations data (ex : Snowflake) 🔹 Design & implémentation des contrôles de sécurité Identités & accès : RBAC, MFA, Conditional Access, PIM Sécurisation réseau et cloisonnement des environnements Sécurisation des endpoints et services IA 🔹 DevSecOps & Infrastructure as Code Mise en place et amélioration de pipelines CI/CD sécurisés Sécurité de l’IaC : Terraform, Bicep Intégration de contrôles automatisés et policy-as-code 🔹 Outils de sécurité Microsoft Microsoft Sentinel Defender for Cloud Microsoft Purview (DLP, classification, conformité) 🔹 Rôle de référent technique Interaction directe avec développeurs, data engineers, data scientists Capacité à apporter des réponses opérationnelles sur les risques IA : prompt injection data / model poisoning exfiltration de données escalade de privilèges via agents / LLM 📦 Livrables attendus Blueprints et architectures de sécurité GenAI sur Azure Configurations sécurisées des services IA (RBAC, policies, alertes, DLP…) Contribution aux analyses de risques et mesures de mitigation techniques Revue de code, IaC et pipelines CI/CD Mise en œuvre de contrôles automatisés Reporting technique : posture de sécurité, vulnérabilités, plans de remédiation
Mission freelance
Data engineer GCP
ESENCA
Publiée le
Apache Kafka
CI/CD
ETL (Extract-transform-load)
1 an
400-440 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement et de l’évolution d’une plateforme de data analytics , nous recherchons un Data Engineer afin de participer à la conception, au développement et à la maintenance des solutions data. Au sein d’une équipe agile, vous contribuerez à la mise en place et à l’amélioration des pipelines de données, à la structuration des modèles analytiques et à l’optimisation des solutions existantes. Vous participerez également à la construction et à l’évolution de la plateforme data sur un environnement cloud moderne. Présence sur site requise 3 jours par semaine . Vos missions Participer aux rituels agiles de l’équipe (daily, sprint planning, rétrospectives). Analyser les besoins métiers et proposer des solutions data adaptées et innovantes . Concevoir et développer les pipelines de données : ingestion, transformation, stockage et restitution. Modéliser les données et contribuer à la construction des modèles analytiques . Assurer la qualité et la fiabilité des développements data . Maintenir et faire évoluer les solutions existantes (run et optimisation). Participer à la construction et à l’amélioration de la plateforme data sur Google Cloud . Contribuer à la diffusion des bonnes pratiques d’exploitation et de valorisation de la data auprès des équipes métiers. Compétences techniques requises SQL et ETL (expert – impératif). Outils et pratiques CI/CD . GitHub, Terraform, Kafka (confirmé – important). Outils de data visualisation : Power BI, Looker (confirmé – important). Environnement Google Cloud Platform (GCS, BigQuery) – souhaitable.
Offre d'emploi
CloudOps AWS F/H
METSYS
Publiée le
Amazon DynamoDB
Amazon Elastic Compute Cloud (EC2)
Elasticsearch
50k-55k €
Lille, Hauts-de-France
SOLIMOES est une filiale de la société METSYS spécialisée sur l'intégration et le déploiement de solutions autour d'AWS. Nous recherchons pour un de nos clients grands-comptes de très forte renommée un Consultant CloudOps AWS pour une mission dont le but est double : garantir l'excellence technique sur l'offre AWS de serveurs/BDD de notre Client et être une ressource N3 pour leur solution Talend on Premise. Plus précisément : Expertise Plateforme Data (Serveurs & BDD) Faire évoluer l'offre de compute basée sur Amazon EC2 et automatiser le déploiement, la gestion et la configuration de leurs bases de données ; Gestion des Clusters BDD : Assurer le déploiement, le MCO et l'optimisation de leurs clusters Druid et de leurs instances Elasticsearch (ELS) ; Services Managés : Administrer et optimiser les instances Amazon Aurora (RDS) et les tables DynamoDB. Mise à Disposition : Mettre à disposition de nouvelles ressources (BDD, Serveurs) en self-service pour les projets Data (Data Engineers, Scientists, Analysts) ; MCO & Support N3 : Assurer le Maintien en Condition Opérationnelle (MCO) et apporter un support de niveau 3 expert sur les problématiques de performance des bases (Aurora, DynamoDB) et d'infrastructure serveur (EC2, systèmes d'exploitation) ; Sécurité & Observabilité : Garantir la conformité de la sécurité des serveurs et des clusters (patching, configuration OS) et ajouter/maintenir les éléments d'observabilité critiques (Monitoring, Alerting) pour toutes leurs bases de données. Leadership Technique Talend Expertise Talend TIS on Premise Agir comme Tech Lead Talend : Être le référent technique et le garant des bonnes pratiques pour l'ensemble des équipes utilisant ou migrant depuis Talend ; Être capable de faire des audits, des revues de code et des recommandations pour garantir la qualité, la performance des développements Talend Conduite du changement ; Mener l'intégration des composants Talend (Jobs Servers, TAC) dans l'environnement DevOps cible (CI/CD, Monitoring, Conteneurisation, Orchestration Airflow).
Mission freelance
AWS Connect SME (Example)
INVESTIGO
Publiée le
700-800 £GB
Royaume-Uni
AWS Connect SME - Amazon Connect - AWS Lambda - Contract - Outside IR35 My client are looking for a Senior AWS Connect Engineer who can take the lead on their Amazon Connect platform. You’ll be the go‑to person for designing, building, and improving their cloud contact center, working closely with teams across the business to make sure everything is scalable, secure, and runs smoothly. Responsibilities Design, build, and maintain Amazon Connect contact center solutions Integrate Amazon Connect with CRM, ticketing, and other internal systems Develop and maintain contact flows, IVRs, routing logic, and call recording policies Implement automation, monitoring, and alerting for contact center services Lead troubleshooting and performance tuning for voice and chat workflows Collaborate with stakeholders to gather requirements and translate them into technical designs Provide technical guidance, best practices, and mentorship to junior team members Ensure security, compliance, and reliability of the contact center platform Requirements 5+ years in cloud engineering, including 3+ years hands‑on with Amazon Connect Strong practical experience with: Amazon Connect (contact flows, queues, routing profiles, hours of operation) AWS Lambda, API Gateway, IAM, CloudWatch, S3, DynamoDB (or similar) Solid track record integrating Amazon Connect with internal and third‑party systems (CRM, ticketing, identity, etc.) Good understanding of telephony concepts (SIP, call routing, IVR, ACD, CTI) Comfortable with at least one programming language (Python, Node.js, or JavaScript) Experience using Infrastructure as Code (CloudFormation, CDK, or Terraform) Strong grasp of AWS security, networking, and identity Able to communicate clearly with both technical and non‑technical stakeholder
Offre d'emploi
Ingénieur DevOps Senior AWS
VISIAN
Publiée le
AWS Cloud
DevOps
Terraform
1 an
Paris, France
Contribuer à la conception, la sécurisation, l’exploitation et l’amélioration continue de la Landing Zone AWS, avec une priorité forte donnée au maintien en condition opérationnelle et au support des clients internes utilisant la plateforme. Principales responsabilités Assurer le run de la Landing Zone AWS et garantir sa stabilité opérationnelle Prendre en charge le maintien en condition opérationnelle de la plateforme Identifier et mettre en œuvre des optimisations techniques et opérationnelles Participer aux rituels Agile de l’équipe Traiter le backlog Jira et contribuer aux User Stories définies par le PO et le PM Produire et maintenir la documentation d’architecture ainsi que les procédures de run Assurer la communication interne avec les équipes du socle Interagir avec les clients internes , pôles, clusters et autres entités du Groupe Contribuer, selon les besoins, à des sujets de build et d’ automatisation Soft skills Esprit d’analyse Rigueur Autonomie Force de proposition Capacité à communiquer et à partager l’information Bon relationnel avec des interlocuteurs techniques et métiers Livrables attendus Documentation technique de la plateforme Documentation des projets hébergés sur la plateforme Procédures de run Contributions aux sujets d’optimisation et de fiabilisation Éléments liés au projet FinOps le cas échéant
Offre d'emploi
Ingenieur Senior Mulesoft/Talend
Halian
Publiée le
MuleSoft
Salesforce Commerce Cloud
Talend
5 ans
Paris, France
Mission Dans le cadre du développement de nos activités d’intégration, vous interviendrez au sein des équipes métiers et IT pour concevoir, développer et maintenir des solutions d’intégration robustes, évolutives et alignées avec les bonnes pratiques d’architecture moderne (API-led, microservices, intégrations synchrones / asynchrones). Responsabilités Analyse & Conception Analyser les besoins fonctionnels et techniques en collaboration avec les équipes métiers et informatiques. Concevoir le design des API et des flux d’intégration (contrats, modèles de données, versioning). Rédiger et maintenir les spécifications d’API (RAML / OpenAPI). Développement & Déploiement Développer, déployer et maintenir les API et solutions d’intégration, notamment sur MuleSoft ou Talend . Mettre en œuvre les bonnes pratiques d’intégration : sécurité, performance, gestion des erreurs, gouvernance. Implémenter et promouvoir les patterns d’architecture d’intégration : API-led, microservices, synchrones / asynchrones. CI/CD & Qualité Contribuer à la mise en place et à l’amélioration des pratiques CI/CD , de l’automatisation et du monitoring. Participer à l’évolution des standards internes et des frameworks d’intégration. Collaboration & Expertise Participer à des ateliers techniques autour de l’intégration et des API. Agir en référent technique sur votre périmètre et accompagner la montée en compétences des équipes internes. Profil Recherché Maîtrise des concepts d’intégration et des outils ESB/iPaaS (MuleSoft, Talend…). Solide compréhension des architectures API, REST, microservices. Connaissance des standards RAML / OpenAPI. Expérience avec les pratiques DevOps : CI/CD, pipelines, automatisation, monitoring. Capacité à travailler en équipe, sens du service, goût pour la transmission et le partage de connaissances.
Offre d'emploi
Expert / TechLead GCP - Toulouse
Groupe Aptenia
Publiée le
Google Cloud Platform (GCP)
Google Kubernetes Engine (GKE)
IAM
6 mois
Toulouse, Occitanie
Nous recherchons un Expert / Tech Lead GCP pour intervenir sur des projets stratégiques à forte valeur. Le rôle combine architecture cloud, DevOps/SRE et sécurité, avec une forte implication sur la conception et le delivery de solutions sur Google Cloud Platform. Vous évoluerez au sein d’une équipe cloud structurée, en lien avec différentes parties prenantes. Expertise GCP, Kubernetes (GKE), Terraform et sécurité (IAM, KMS, Zero Trust) requises. Poste basé en région toulousaine, avec perspective d’intégration en CDI après 6 mois de prestation.
Offre d'emploi
Senior DevOps GCP
KLETA
Publiée le
GitLab CI
Google Cloud Platform (GCP)
Terraform
3 ans
Paris, France
Dans le cadre de projets de transformation numérique, nous recherchons un Senior DevOps GCP pour accompagner nos clients dans l’industrialisation de leurs environnements cloud. Vous interviendrez sur des missions d’audit, de cadrage et de mise en œuvre de solutions DevOps sur GCP. Vous analyserez les architectures existantes, proposerez des trajectoires d’évolution et mettrez en place des pipelines CI/CD adaptés. Vous contribuerez également à la sécurisation des environnements, à l’automatisation des déploiements et à l’amélioration des pratiques d’observabilité. En parallèle, vous accompagnerez les équipes client dans leur montée en compétence sur GCP et les pratiques DevOps modernes.
Offre d'emploi
Développeur Salesforce F/H
COEXYA
Publiée le
35k-40k €
Saint-Didier-au-Mont-d'Or, Auvergne-Rhône-Alpes
CONTEXTE Pour accompagner la croissance de notre entité spécialisée en CRM et marketing digital, nous recherchons notre futur développeur Salesforce F/H. Coexya propose une expertise en conseil et mise en oeuvre de solutions CRM?: mobile et multi canal pour la force de vente, le marketing et le service client. Intégrer ce pôle vous permettra d'évoluer après d'experts spécialisés sur les technologies Salesforce et maîtrisant les technologies innovantes du Web. CE QUE L'ON VOUS PROPOSE Intégrer à un centre de compétence Salesforce, vous prenez en charge les missions suivantes : - L'analyse, - Le design technique, - L'implémentation, - Les tests, - La documentation - Le déploiement.
Offre d'emploi
Data Engineer (AWS / Databricks)
Hito
Publiée le
AWS Cloud
Databricks
Python
3 ans
40k-45k €
500-750 €
Tokyo, Japon
Pour le compte d’un de nos clients, nous recherchons un Data Engineer AWS motivé pour s’installer au Japon (Tokyo) afin de participer à la construction d’une nouvelle plateforme data. Missions : Dans le cadre de la mise en place d’un Data Hub, vous interviendrez notamment sur : - La construction de pipelines de données - L’intégration et la consolidation de données provenant de différents systèmes - Le mapping des flux de données entre systèmes sources et systèmes downstream - Le nettoyage et la fiabilisation des données - La mise à disposition des données pour des outils d’analyse et de reporting - Les échanges avec les équipes métier afin de comprendre les besoins data Stack technique - AWS - Databricks - Python - ECS - CI / CD - Outils de dataviz (type Tableau) Profil recherché - Expérience solide en Data Engineering - Très bonne maîtrise AWS - Expérience Databricks - Bonne compréhension des architectures data et pipelines Langues - Japonais requis (JLPT N2 dans l'idéal) pour échanger avec les équipes locales - OU Anglais professionnel/bilingue si tout est validé par le client pour la technique Organisation - Poste basé à Tokyo - Présence sur site 2 jours par semaine
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1687 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois