Trouvez votre prochaine offre d’emploi ou de mission freelance n8n
Votre recherche renvoie 7 résultats.
Mission freelance
Développeur IA Générative & Automatisation – n8n
HAYS France
Publiée le
API
Javascript
n8n
3 ans
100-440 £GB
Lille, Hauts-de-France
Enjeux principaux Automatiser les workflows métiers récurrents (supply, retail, finance, RH, service client…) Fiabiliser les échanges entre les systèmes : ERP, CRM, outils internes, APIs externes Réduire les délais de traitement et améliorer la qualité de service Standardiser et industrialiser les pratiques d’automatisation Intégrer des briques d’IA générative pour améliorer la productivité 🎯 Objectifs et livrables attendus Le prestataire devra : Cadrage & Pilotage Identifier, qualifier et prioriser les cas d’usage d’automatisation avec les équipes métiers Réaliser des ateliers de cadrage, cartographies de processus et analyses d’opportunités Conception & Développement Concevoir, développer et déployer des workflows n8n robustes, maintenables et monitorés Intégrer et orchestrer des APIs internes et externes Développer des automatisations enrichies par l’IA générative (classification, rédaction, extraction de données…) Industrialisation Mettre en place : versioning et bonnes pratiques Git monitoring et alerting gestion avancée des erreurs et retry documentation standardisée des workflows Assurer la scalabilité et la gouvernance des automatisations Accompagnement & Transmission Monter en compétence les équipes internes (formation, coaching, documentation) Participer à l’élaboration des standards d’automatisation au sein de Boulanger 🧰 Environnement technique et organisationnel Outils principaux : n8n, APIs REST/GraphQL, outils métiers internes Langages & stacks utiles : JavaScript/TypeScript, JSON, HTTP, Webhooks IA Générative : modèles GPT, assistants IA, automatisation augmentée IA Méthodologie : Agile / itérative Architecture : micro-services internes, connecteurs API, orchestrations n8n
Mission freelance
Tech Lead Data GCP
UCASE CONSULTING
Publiée le
DBT
GenAI
Google Cloud Platform (GCP)
1 an
400-600 €
Île-de-France, France
📢 Poste à pourvoir – Tech Lead Data GCP/Python (H/F) Bonjour à tous 👋 Je recherche un(e) Tech Lead Data Senior pour intervenir sur une mission stratégique autour d’une Data Platform moderne orientée Cloud & innovation 🚀 🎯 Contexte Dans le cadre d’un programme de transformation ambitieux, vous intégrerez une Data Factory en charge de : Construire et faire évoluer une plateforme data cloud Industrialiser les workflows data Déployer des solutions innovantes autour de la data et de l’automatisation Diffuser les bonnes pratiques data au sein des équipes 👉 Environnement dynamique avec une forte culture produit et innovation 🚀 Missions principales : Concevoir et développer des data products (jusqu’à 80% de dev) Participer au cadrage technique et aux études d’impact Mettre en place des architectures data robustes et scalables Assurer la qualité du code (review, bonnes pratiques) Accompagner et challenger les Data Engineers Gérer les incidents complexes (niveau 3) Documenter les solutions (architecture, flux, data models) 🛠️ Stack technique : Langages : Python, SQL, Shell Data & Cloud : GCP (BigQuery, Dataflow, Cloud Storage), DBT Streaming / ingestion : Kafka, Kafka Connect, SFTP DevOps / CI-CD : Docker, Kubernetes, Terraform, GitLab BI / Restitution : Looker + Bonus : Automatisation / IA (n8n, outils GenAI) ✨ Les + Projet structurant avec forte visibilité Environnement moderne (Cloud, Data, IA) Forte autonomie et impact technique Équipe orientée innovation ⏱️ Mission 📅 Démarrage : ASAP 📌 Télétravail : 50% 📍 Localisation : Île-de-France
Mission freelance
Développeur IA générative
CAT-AMANIA
Publiée le
API
IA Générative
1 an
Nord, France
Contexte de mission Industrialisation des processus métier via n8n – dans un contexte de transformation digitale et d’optimisation continue de ses opérations, le client souhaite accélérer l’industrialisation de ses processus métier en s’appuyant sur des solutions d’automatisation flexibles et scalables. Automatiser les workflows métier récurrents Fiabiliser les échanges de données entre les différents systèmes (ERP, CRM, outils internes, APIs externes) Réduire les délais de traitement et améliorer la qualité de service Standardiser et industrialiser les pratiques d’automatisation Objectifs et livrables La mission confiée au prestataire s’inscrit dans cette dynamique et vise à : Cadrer et prioriser les cas d’usage d’automatisation en collaboration avec les équipes métiers Concevoir et développer des workflows n8n robustes et maintenables Mettre en place des bonnes pratiques d’industrialisation (versioning, monitoring, gestion des erreurs, documentation) Accompagner la montée en compétence des équipes internes sur l’outil n8n Garantir la scalabilité et la gouvernance des automatisations déployées Environnement technique et organisationnel Outils principaux : n8n, APIs internes et externes, outils métiers
Offre d'emploi
Ingénieur DevSecOps (H/F)/ Cesson-Sévigné (35)
OCSI
Publiée le
CI/CD
DevSecOps
Google Cloud Platform (GCP)
3 ans
40k-55k €
400-550 €
Cesson-Sévigné, Bretagne
Contexte Dans le cadre du renforcement de ses équipes, notre client, acteur majeur des télécommunications et de la cybersécurité, recherche un DevSecOps Engineer pour rejoindre ses équipes. Vous intégrerez l’équipe AOI , un groupe dynamique et engagé qui joue un rôle stratégique dans la sécurisation et l’innovation des solutions technologiques . Cette équipe travaille sur des solutions avancées combinant cloud, automatisation et intelligence artificielle afin d’améliorer la détection et la gestion des incidents de sécurité. Dans ce contexte, vous interviendrez notamment sur Qevlar AI , une solution innovante d’investigation automatique des incidents de sécurité basée sur l’IA et déployée dans un environnement cloud et conteneurisé . Missions En tant que Ingénieur DevSecOps , vous contribuerez au développement et à la sécurisation des plateformes techniques. À ce titre, vos principales responsabilités seront : Participer à la finalisation, au développement et à la maintenance de la solution Qevlar AI dédiée à l’investigation automatique des incidents de sécurité Concevoir, déployer et maintenir des pipelines CI/CD sécurisés afin de garantir la qualité et la sécurité des livrables Collaborer étroitement avec les équipes de développement et de cybersécurité pour intégrer les bonnes pratiques DevSecOps Mettre en place et automatiser les processus de sécurité et de conformité tout au long du cycle de vie des applications Participer à la surveillance et à l’analyse des incidents de sécurité afin d’identifier des axes d’amélioration continue Contribuer à la définition et à la mise en œuvre des politiques de sécurité dans des environnements cloud et on-premise Intervenir sur les solutions d’ orchestration et d’automatisation des réponses aux incidents , notamment XSOAR et N8N
Offre d'emploi
TECH LEAD DATA GCP
UCASE CONSULTING
Publiée le
Docker
Google Cloud Platform (GCP)
Python
6 mois
40k-45k €
400-550 €
Paris, France
Je recherche pour un de mes clients un Tech Lead Data : Dans ce cadre, la nouvelle squad data aura la charge de : • La migration et le déploiement en production de traitements de données sur GCP (workflows) • La copie d’historique de données depuis le data warehouse on-prem vers GCP BigQuery • La mise en place d’un orchestrateur pour les traitements de données sur GCP • La mise en place d’une solution de data lineage au niveau colonne de données. • L’automisation de processus de data engineering par l’IA ou une plateforme d’automatisation (e.g. n8n). La composante développement sera importante, jusqu’à 80% du temps et dépendra de la taille de la squad et de la charge de développement. Description de la prestation Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab •Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité
Offre d'emploi
Data Engineer & API Automation (H/F)
Link Consulting
Publiée le
50k-60k €
Montaigu-Vendée, Pays de la Loire
Notre client est un groupe industriel européen spécialisé dans la fabrication de compléments alimentaires, présent sur plusieurs sites en France, Belgique, Italie et Pays-Bas. Acteur engagé à l'intersection de la santé et du bien-être, il accélère aujourd'hui la structuration et la modernisation de son système d'information. Dans ce cadre de transformation, la DSI renforce son équipe avec un profil Data & Integration Engineer — rôle transverse et stratégique, au cœur de la fiabilisation des données, de l'intégration applicative et de l'automatisation des processus. Vos missions : ? Data Engineering & Qualité des données (cœur du poste, ~70%) * Concevoir, développer et maintenir des pipelines ETL / ELT fiables et industrialisés * Assurer les transformations, validations et migrations de données dans le cadre des projets ERP * Mettre en œuvre les mécanismes de qualité : contrôles, règles de gestion, historisation, traçabilité * Garantir l'intégrité, l'unicité et la cohérence des référentiels de données (MDM / PIM) * Travailler sur des modèles relationnels et analytiques (étoile, snowflake) * Contribuer au dictionnaire de données et à la documentation fonctionnelle et technique ? Intégration & Interopérabilité (~15%) * Concevoir et opérer les flux inter-applications via des solutions EAI / iPaaS (n8n, Boomi ou équivalent) * Maintenir le catalogue de flux (SFTP, API REST, GraphQL) et en assurer la documentation * Tester et déboguer les API avec des outils dédiés (Postman ou équivalent) ? APIs & Services Data pour les métiers (~10%) * Exposer des API et services data sécurisés pour faciliter l'accès aux données d'entreprise * Permettre aux équipes de construire des POC, prototypes et cas d'usage IA rapidement * Veiller à la gouvernance, à la sécurité et à la traçabilité des accès aux données ? Automatisation & IA (~5%) * Développer ou intégrer des automatisations via scripts, workflows EAI ou solutions low-code / RPA * Contribuer à l'intégration de cas d'usage IA et aider à industrialiser les prototypes métiers Les compétences techniques * * SQL avancé — indispensable (transformations complexes, optimisation, gouvernance) * Solides bases en Data Engineering : pipelines, ETL/ELT, qualité et modélisation des données * Maîtrise des API REST ; GraphQL appréciée * Pratique de Git et sensibilité aux principes DevOps * Expérience ou forte appétence pour Go, Python ou Node.js * Familiarité avec les environnements cloud — idéalement Microsoft Azure (Functions, App Services, Logic Apps) * Connaissance ou intérêt pour les outils EAI / automatisation (n8n, Boomi ou équivalents) * Sensibilité aux enjeux d'urbanisation du SI et de gouvernance des données
Mission freelance
Tech Lead Data GCP Expert F/H
SMARTPOINT
Publiée le
Apache Kafka
CI/CD
Docker
12 mois
550-600 €
La Défense, Île-de-France
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience similaire significative dans le domaine de la banque de détail est un plus.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
7 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois