Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
Ingénieur DevSecOps GCP
Dans le cadre du déploiement d’un programme AppSec assisté par l’intelligence artificielle , notre client fait évoluer ses services et outils de développement, ainsi que leur usage par les équipes applicatives. Des profils à forte dominante Ops et DevSecOps sont attendus au sein de l’équipe DevTools Factory , organisée en mode Agile (Scrum) avec des sprints de 3 semaines. 🛠️ Missions principales 1. Mise en place et maintenance de l’infrastructure des services DevTools : Installation et mise à jour des services GitLab Ultimate , Artifactory et SonarQube . Automatisation de l’infrastructure via Infrastructure as Code (IaC) , dans les environnements cloud publics (principalement GCP , secondairement AWS ). Garantir la scalabilité de l'infrastructure en lien avec les usages DevSecOps et l'intégration de GitLab Duo (GitLab + fermes de runners). Réaliser des mises à jour régulières pour bénéficier des dernières fonctionnalités et correctifs. Développement de scripts/outils pour l’exploitation et les opérations. Intégration des services dans une solution de monitoring et alerting (Dynatrace) . Mise à jour de la documentation des installations automatisées . Actualisation du dossier d’exploitation à destination des équipes support L2/L3. 2. Outillage DevSecOps & intégration IA : Création de scripts/outils facilitant l’accès aux services, intégrant des fonctions DevSecOps et des assistances IA pour le développement. Mise à jour de l’outillage GitLab : gestion des projets, groupes, utilisateurs, RBAC , compliance frameworks , security policies à l’échelle (merge requests, scanners, pipelines), GitLab Duo , etc. Gestion sécurisée des secrets via Vault , avec automatisation de la rotation . Intégration des services aux autres plateformes : ServiceNow (catalogue) , GitLab Duo , JIRA , CI/CD interne . Déploiement de solutions Zero Trust sur les outils à travers Zscaler/ZTNA . 3. Support opérationnel : Support quotidien des services DevTools. Intervention sur incidents , diagnostics et résolutions. Rédaction de post-mortems après tout incident critique. Communication proactive auprès des équipes IS en cas de dysfonctionnement majeur. Support aux équipes DevOps sur les problématiques projets. Assistance aux Security Champions pour la gestion des vulnérabilités et leur remédiation dans GitLab . 📄 Livrables attendus : Automatisation des infrastructures (IaC) + documentation complète (diagrammes, README). Développement du code d’outillage pour les services. Support documentaire : guides pratiques, procédures ("how-to"), intégration dans le portail eDEX .

Mission freelance
Architecte GCP/Openshift
Pour le compte de l' un de nos clients dans le domaine assuranciel, nous recherchons un Architecte GCP/Openshift Dans le cadre du déploiement d'une plateforme, le client souhaite deployer la solution APIGEE. Pour cela,il recherche une personne capable d' établir l' architecture technique et le design de la plateforme API Management basée sur Google APIGEE Hybrid, GCP et Openshift. Cette mission est basée au Mans. DU télétravail peut être proposé mais nous recherchons en priorité un candidat habitant à proximité du Mans

Mission freelance
Auditeur technique GCP - Expert GCP ( Mission courte de 8 jours)
Notre client, une entreprise du secteur de l’énergie a récemment migré son infrastructure d’un système hybride vers Google Cloud Platform (GCP) , avec une gestion via Infrastructure as Code (Terraform/Tofu) . Elle souhaite aujourd’hui réaliser un audit technique complet afin d’évaluer la sécurité, la conformité, la robustesse et l’évolutivité de son nouvel environnement cloud. Missions Auditer l’infrastructure GCP et l’implémentation IAC . Identifier les risques de sécurité , points de non-conformité et axes d’optimisation. Évaluer la fiabilité, la performance et la scalabilité de l’architecture. Analyser les environnements techniques existants : GKE (Kubernetes managé) GitHub Actions (CI/CD) Prometheus / Grafana (monitoring) Fournir des recommandations concrètes et actionnables . Restitution des résultats en collaboration avec l’équipe sur site.
Offre d'emploi
Ingénieur API & Intelligence Artificielle (H/F)
Nous recherchons un API & Prompt Engineer expérimenté pour rejoindre une équipe engagée dans le développement d’une plateforme SaaS innovante dédiée au calcul d’empreinte environnementale (carbone, hydrique, biodiversité). Vous contribuerez à l’intégration de l’IA dans une gamme de produits digitaux stratégiques, en lien direct avec les équipes produit et techniques. 🎯 Missions Concevoir, développer et optimiser les agents AI et leurs fonctionnalités. Écrire, tester et améliorer des prompts . Définir et développer les APIs nécessaires au fonctionnement des agents. Contribuer au développement de nouvelles fonctionnalités en mode collaboratif. Travailler au quotidien avec Product Owners, Product Managers, développeurs et UX Designer. Garantir les bonnes pratiques de développement et la qualité technique des livrables. 🔧 Compétences recherchées 5+ ans d’expérience en développement logiciel, notamment en Python . Solide maîtrise de la conception d’APIs . Expérience confirmée en intégration de solutions AI . Bonne connaissance des méthodologies Agile (Scrum, CI/CD, GitLab, etc.) . Connaissance de l’ environnement Cloud (GCP apprécié). Excellentes qualités relationnelles et capacité à travailler en équipe. 📍 Localisation & organisation Basé en Île-de-France. Télétravail possible jusqu’à 2 jours par semaine . Équipe projet internationale et pluridisciplinaire (12 personnes). 📅 Démarrage & durée Démarrage : ASAP – septembre 2025 . Mission longue durée : 12 mois et plus . Positionnement possible en CDI ou en freelance (ouverture aux sous-traitants).

Mission freelance
JS FullStack Developer, on GenAI (GCP) - 92 - English mandatory
JS FullStack Developer, on GenAI (GCP) - 92 - English mandatory 🎯 Le projet : Nous recherchons quelqu'un pour participez à un projet innovant et international qui associe développement web JS et intelligence artificielle générative , on Cloud (GCP) Vous travaillerez au sein d’une équipe dynamique sur la création et l’optimisation d’applications full stack JS intégrant les dernières avancées en IA générative (textes & images) , avec un fort accent sur la performance, la scalabilité et l’expérience utilisateur. 🔧 Missions principales : Concevoir et développer des applications web full stack robustes et performantes. Intégrer des modèles de GenAI dans les plateformes (NLP & génération d’images). Concevoir et implémenter des interfaces utilisateurs ergonomiques et esthétiques . Collaborer sur l’infrastructure cloud GCP et les bases de données (orchestrées par MongoDB) afin de garantir des solutions scalables et optimisées. Participer activement aux choix techniques et à l’amélioration continue du projet.

Offre d'emploi
Data engineer
Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! Aujourd’hui, nous recherchons un(e) Data Engineer Expérimenté(e) en CDI pour intervenir sur un projet stratégique au sein de l’un de nos clients grands comptes, acteur majeur de la grande distribution. Ce que vous ferez : Intégré(e) aux équipes Data, vous interviendrez sur des projets à forte volumétrie et enjeux stratégiques autour de Google Cloud Platform : Conception et optimisation de pipelines de données avec BigQuery et DBT . Développement et automatisation des workflows via GitLab CI/CD et Docker Compose . Modélisation de données et mise en place de couches sémantiques avec Looker/LookML . Manipulation et valorisation de données en SQL avancé . Participation aux rituels agiles et collaboration avec des équipes pluridisciplinaires. Documentation, bonnes pratiques, et amélioration continue des processus data. Votre positionnement vous permettra d’apporter une véritable expertise technique tout en contribuant à la transformation digitale d’un acteur majeur du retail.

Offre d'emploi
Développeur BI Senior (MSBI/GCP)
Contexte: Nous recherchons un Data Analyst / Développeur BI Senior afin de renforcer l’équipe existante. Le profil attendu doit avoir une expertise confirmée dans les environnements GCP et Power BI Online, avec une forte capacité à produire des développements BI robustes, scalables et maintenables. Missions principales: - Réaliser les reportings et tableaux de bord. - Assurer la maîtrise et la modélisation des données. - Concevoir, développer et maintenir des solutions BI performantes, optimisées et réutilisables. - Réaliser des tests fonctionnels et des recettes métiers. - Garantir l’application des bonnes pratiques de développement BI. - Produire la documentation technico-fonctionnelle en fin de sprint. - Conseiller et accompagner les équipes métiers (devoir de conseil). - Collaborer étroitement avec le Product Owner et l’équipe de développement. - Concevoir des maquettes en lien avec le Product Owner. - Participer à l’assistance utilisateurs (formation, transmission de connaissances, support niveau 3). - Débloquer et accompagner les autres développeurs si nécessaire. Environnement technique & compétences attendues Environnement GCP (Google Cloud Platform) : - BigQuery - PySpark - Dataflow - Airflow / DAG - Cloud Storage - Administration de plateforme (IAM, gestion des droits, monitoring, etc.) BI & Data Visualisation : - Power BI Desktop & Online - Modélisation BI - DevOps / CI/CD - Bonnes pratiques BI (scalabilité, performance, maintenabilité). Profil recherché Expérience : minimum 7 ans dans le développement BI et l’exploitation de données. Compétences techniques : maîtrise confirmée de GCP et Power BI Online, avec une bonne pratique des outils de traitement et d’orchestration des données (BigQuery, PySpark, Airflow, Dataflow).
Offre d'emploi
Product Owner GCP
Vous rejoignez l’équipe Cloud Public, au sein de laquelle vous intégrerez la squad GCP. Vous aurez en charge le delivery technique des éléments de roadmap décidés. Vous serez responsable de la gestion du backlog et de l’animation de la squad GCP. Le périmètre de cette Squad s’étend de la conception technique du produit, de sa sécurisation, de sa mise en œuvre opérationnelle, de son maintien en condition opérationnelle en production et sa mise en œuvre financière. Vous évoluerez dans un environnement technique riche, distribué, sécurisé et hautement disponible. L’équipe est organisée en Agile. A ce titre, vos missions principales seront : o Mise en œuvre des actions en déclinaison de la Roadmap o Gestion du backlog produit et de son traitement en animant les ressources de la squad o Vision à 360 de toutes les activités relatives au produit o Animation de la squad et des contributeurs en coordonnant les activités et en animant la comitologie du produit o Piloter le budget de Build o Participer à la construction du budget Build et Build to run et optimiser le budget Run du produit en remontant les besoins au Product Manager o Communication interne Socle o Communication externe Socle: Pôles et Clusters du client, Entités du groupe

Mission freelance
Lead DATA DATABASE - DATA Engineer Bases de Données
Dans le cadre d’un projet de développement visant à construire une base de données interne intégrant des workflows opérationnels, le Tech Lead Data Base interviendra au sein d’une équipe projets de données . Il aura pour rôle d’assurer la coordination technique , la conception data et l’ intégration de la base dans l’environnement SI de l’entreprise. Responsabilités principales Cadrer les besoins et proposer des évolutions techniques et fonctionnelles du produit existant. Assurer la liaison avec des sociétés de développement externalisées : suivi des exigences, respect des délais, qualité des livraisons. Piloter les scripts de développement et définir la stratégie de déploiement (intégration continue, automatisation, mise en production). Concevoir et intégrer la base de données dans l’architecture SI et la stratégie globale de données. Produire la documentation et les rapports, assurer une communication régulière auprès des parties prenantes. Profil recherché Compétences techniques Ingénierie de données (Data Engineering) : pipelines de données, modélisation, intégration ETL/ELT. Architecture de données (Data Architecture) : modèles de données, urbanisation SI, intégration dans un écosystème complexe. Solide maîtrise des bases de données relationnelles (PostgreSQL, Oracle, SQL Server). Connaissances en gouvernance des données : qualité, sécurité, conformité. Familiarité avec le Cloud (Azure, AWS, GCP) appréciée. Compétences fonctionnelles & méthodologiques Expérience en gestion de projets Data/IT et coordination de prestataires externes. Bonne compréhension des rôles Data Owner / Data Steward et des enjeux de data management . Capacité à documenter et produire des rapports clairs et synthétiques. Pratique des méthodes Agile / Scrum . Expérience & formation 5 à 10 ans d’expérience en ingénierie et architecture de données dans des environnements SI complexes. Expérience confirmée en pilotage technique et coordination multi-acteurs. Formation supérieure en informatique, data engineering ou équivalent . Anglais professionnel. Qualités personnelles Leadership technique, autonomie et rigueur. Excellentes capacités de communication et de coordination. Esprit d’analyse, de synthèse et orientation résultats. Conditions Poste basé à Pau , avec 2 jours maximum de télétravail par semaine .

Mission freelance
Ingénieur Développeur (Python, GCP Cloud, ReactJs, API)
Vous interviendrez dans le cadre d'un projet de remplacement d'un outil portant sur la Lutte contre le Blanchiment et le Financement du Terrorisme. Vos missions consisteront à contribuer à/au (x): Assurer le développement des flux entrants et sortants de l'application de screening, Assurer le stockage des données, Assurer la création d'une interface pour le pilotage de l'activité, Contribuer à la migration de l'application vers GCP Google, Déployer une base miroir ainsi qu'une interface graphique permettant le suivi de l'activité,

Mission freelance
Ingénieur Développeur (Python, API, ReactJs GCP)
Vous interviendrez dans le cadre d'un projet de migration en cours vers le Google Cloud afin d'assurer une mise en conformité de l'outil d'expertise des activités Réseau. L'outil actuel repose sur STRUSTS 1.3 qui n'est plus maintenu. Mettre en conformité l'outil afin de gérer l'obsolescence pour répondre aux nouveaux besoins métiers. Permettre de pouvoir connecter à la plateforme GCP, Accompagner les équipes afin de répondre aux règles de sécurité, d'obsolescences techniques et fonctionnelles, Assurer le développement dans le domaine Back End et Front End,

Mission freelance
Tech lead Java/Kafka/Vue (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Tech lead Java/Kafka/Vue (H/F) à Lille, France. Contexte : - 1 Développeur Front-end senior (Vue.js) - 1 Développeurs Back-end expert - 1 Product Owner (mi-temps) - 1 Product Manager - 1 Tech Lead (tiers temps) Les missions attendues par le Tech lead Java/Kafka/Vue (H/F) : En tant que Tech lead, vous serez intégré au cœur de l’équipe et participerez activement à : - La conception et l’implémentation de nouvelles fonctionnalités métier autour des règles et métriques de qualité - L’évolution de l’architecture modulaire du back-end (Spring Boot/Java 21) - L’amélioration de la scalabilité et fiabilité de la plateforme (Kafka, Kafka Stream, Firestore, PostgreSQL, GKE) - La revue de code, le mentorat éventuel et l’amélioration continue de la qualité du code - Le maintien et le monitoring de l'application Stack technique : Back-end : - Java 21 - Spring Boot 3 - Kafka, Kafka Streams - Firestore, PostgreSQL - GitHub CI/CD (GitHub Actions) - Déploiement sur Google Cloud (App Engine, GKE) Front-end : - Vue.js, (Svelte éventuellement) Profil recherché : Nous recherchons un profil expérimenté, capable d’avoir de l’impact rapidement : - Expertise confirmée en Java et Spring Boot - Très à l’aise avec Kafka (et idéalement Kafka Streams) - Bonnes connaissances en requêtes SQL complexes et environnement BigQuery - Quelques compétences en front-end (Vue.js) appréciées - Force de proposition, curieux, rigoureux, autonome - Excellente capacité de collaboration et d’adaptation en équipe

Mission freelance
Data Scientist
Contexte Nous recherchons un référent technique IA générative pour concevoir, industrialiser et fiabiliser des solutions en production (LLM, RAG, agents, chatbots) et le traitement de données non structurées (PDF, images). Le projet s’appuie sur des pratiques solides d’ingénierie logicielle et doit évoluer dans un environnement cloud / software engineering (GCP, Python). Mission En tant que Technical Lead IA / MLOps, vous aurez pour missions principales : Concevoir et déployer des architectures robustes pour LLM, RAG, agents et chatbots, en garantissant scalabilité, coût et latence. Développer et maintenir des pipelines de traitement documentaire et multimodal (parsing PDF, OCR, extraction de tables, prétraitement d’images, fusion texte+image). Industrialiser les modèles et services : CI/CD, conteneurisation (Docker/K8s), déploiement, suivi d’expériences, monitoring et observabilité (offline & online). Mettre en place des standards d’ingénierie : code propre, tests automatisés, revues d’architecture, templates projets et documentation vivante. Superviser la qualité des données et la conformité (GDPR), gérer secrets/IAM, et définir des mécanismes de mitigation des risques LLM (hallucinations, injection de prompts, fuite de données). Encadrer et former l’équipe : mentoring, diffusion des bonnes pratiques, participation aux revues de code et aux choix techniques. Mesurer et garantir les indicateurs opérationnels des chatbots/agents (latence, coût, taux de réponse, satisfaction utilisateur).
Mission freelance
INGENIEUR RESEAU
🎯 Missions principales : - Administrer et maintenir les infrastructures réseaux (switchs, Wifi, sécurité, IPAM/DHCP) - Diagnostiquer et résoudre les incidents de niveau 2 et 3 - Participer à la mise en œuvre et à l’évolution des projets réseaux et sécurité - Contribuer au renforcement des politiques de sécurité et à leur application - Collaborer avec les différentes équipes IT pour assurer la disponibilité et la performance des services - Être force de proposition dans l’amélioration et l’optimisation des infrastructures

Offre d'emploi
Data Analyst/ Data Engineer F/H
Qui sommes nous ICSIS est une ESN digitale innovante et en fort développement, implantée à Lille et Strasbourg, qui accompagne ses clients dans leurs projets de Transformation Numérique avec un positionnement régional de proximité. Intégrer ICSIS, c'est participer à un projet d'entreprise motivant centré autour de ses collaborateurs, bénéficier d un management de proximité, avec un suivi et un accompagnement personnalisé de son projet professionnel. Nous proposons à nos consultants des missions valorisantes au sein des équipes de nos clients finaux (Banques, Finances, Assurances, Distribution et E-Commerce, Services & Utilities). ICSIS propose un panel varié de missions : - Développement applicatif (Back-End, Front End, Data, Cloud), - Conseil en Architecture, - Conseil des Maîtrises d’Ouvrage dans l’évolution de leurs métiers, de leurs organisations et dans l’intégration des nouveaux usages, - Assistance au Pilotage de projets. Dans le cadre du développement de notre agence de Lille, nous recrutons actuellement des Data Analyst / Data Engineer. La mission consiste à : - Maîtrise de la donnée et garant de la qualité de son utilisation - Analyser les besoins des utilisateurs et proposer des solutions innovantes - Développer les solutions data - Maintenir les solutions existantes - Mettre en oeuvre des pipelines de données

Offre d'emploi
Data Engineer GCP & Talend
Au sein de la Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté. Notre Data Factory joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Nous nous concentrons sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour nos équipes. Description Missions principales • Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe Livrables Développements Cahiers de test/recette Dossier de recette / Mise en production Spécifications Document d'exploitation Fiche consigne Compétences Compétences techniques requises : • Langages : Maîtrise de SQL et connaissance de langages comme Python ou Java pour les traitements de données. • Talend : Solides compétences dans la conception et la gestion des workflows • GCP : Expérience sur les outils BigQuery, Dataflow, DataForm, Pub/Sub, CoudComposer et d’autres services GCP liés aux données. • Outils : Familiarité avec des outils de CI/CD comme Git, Jenkins, ou Terraform (serait un plus).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.