Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 296 résultats.
Freelance
CDI

Offre d'emploi
Ingénieur DevOps H/F

OBJECTWARE
Publiée le
Automatisation
CI/CD
Cloud

1 an
70k-85k €
550-650 €
Luxembourg
Nous recherchons pour un de nos clients, spécialisé dans le domaine bancaire un Ingénieur DevOps /F pour une mission à pourvoir dès que possible sur le secteur du Luxembourg. Dans le cadre du programme de migration vers la toolchain DevOps du Groupe , l’Ingénieur DevOps rejoint l’équipe IT Toolchain / CoE afin de concevoir et déployer les pipelines nécessaires à la migration massive des applications. Missions principales : Mise en place des pipelines CI/CD Concevoir et implémenter les pipelines de déploiement applicatif . Automatiser les processus build, test, packaging et déploiement . Standardiser les pipelines pour les différentes familles d’applications. Migration des applications Participer à la migration des applications vers la toolchain du Groupe . Adapter les pipelines selon les technologies applicatives. Accompagner les équipes de développement dans la migration. Automatisation et industrialisation Développer des scripts d’automatisation. Implémenter les pratiques DevOps et Infrastructure as Code . Optimiser les performances et la fiabilité des pipelines. Support et amélioration continue Participer au support de la plateforme DevOps. Identifier et corriger les incidents liés aux pipelines. Contribuer à l’amélioration continue des outils et processus. Environnement technique : Outils DevOps Jenkins Git Maven / ANT Artifactory / Nexus Ansible Environnements applicatifs Java / Spring Boot Python JavaScript (Angular, React, Node.js) Cobol / Microfocus PL/SQL / Oracle DB Cloud Infrastructure Cloud Services IaaS / PaaS / CaaS .
Freelance

Mission freelance
Lead Product Owner – Securities Research Data/AI Platform H/F

Comet
Publiée le
Azure
Bloomberg
IA

128 jours
900-1k €
Paris, France
Nous recherchons un(e) Lead Product Owner pour piloter la conception et la livraison à l’échelle industrielle de produits innovants, centrés sur l’IA et les données, pour la franchise de Recherche en Valeurs Mobilières côté vente (sell-side). Vous orchestrerez une équipe interfonctionnelle (Analystes de Recherche, Ventes, Corporate Access, Data Scientists/Ingénieurs, UI/UX et ingénieurs full-stack) afin de créer des services sécurisés, multilingues et prêts pour le client, améliorant la portée, la qualité et la monétisation de la recherche. Périmètre du produit : trois piliers 1. Production augmentée par l’IA pour les Analystes de Recherche Génération et assemblage de documents de recherche multilingues avec supervision humaine. Capacités clés : ingestion et templating de documents, traduction/adaptation du ton, sourcing de données, suggestions de mise à jour de modèles, résumés factuels avec citations et validation. 2. Engagement client augmenté par l’IA pour les Ventes Agents intégrés pour réduire le temps de préparation et augmenter le temps consacré aux clients et à l’analyse à forte valeur ajoutée. Capacités clés : récupération sécurisée de données internes et externes, requêtes conversationnelles, préparation ciblée de matériel client, automatisation du flux de capture d’alpha, intégration avec CRM et outils collaboratifs. 3. Monétisation & expérience client Transformation de la propriété intellectuelle en revenus récurrents via différents formats : ensembles de données, abonnements, contenus générés par IA (chatbots, podcasts, vidéos, etc.). Capacités clés : empaquetage de données, génération de contenu multi-format, analyse de l’utilisation et de la monétisation, distribution conforme aux droits. Contexte technologique : Modernisation d’une plateforme mixte : systèmes existants (CRM, portail web de Recherche) et nouvelles solutions IA (Azure RAG, Microsoft Copilot, plateformes de données et IA). Livraison de produits RAG/LLM/Agents à l’échelle avec garde-fous, observabilité et contrôle des coûts. Responsabilités clés : Définir la feuille de route 3 ans et quantifier la valeur via OKRs. Concevoir des expériences RAG/agents, automatiser les flux, sécuriser les données et superviser la qualité humaine. Intégrer les flux de données, assurer la conformité des licences et collaborer avec les équipes Juridique/Conformité. Gérer le backlog, rédiger les PRD, définir les SLOs, livrer de manière itérative et soutenir le lancement des offres client.
Freelance

Mission freelance
Chef de projet – AMOA SAP SD (H/F) – Data Migration / Cutover / S/4HANA

KN CONSULTING
Publiée le
AMOA
Legacy System Migration Workbench (LSMW)
SAP MM

6 mois
Corbeil, Grand Est
Nous recherchons un(e) Chef de projet / Consultant AMOA SAP SD expérimenté(e) pour accompagner la mise en œuvre et la migration de nos systèmes SAP. Vous serez le lien entre les équipes métiers et IT, et vous assurerez le succès des projets SAP SD, de la phase de recueil des besoins à la mise en production. Mission principale : Piloter les projets SAP SD en collaboration avec les équipes métiers et techniques. Recueillir et formaliser les besoins métier, rédiger les spécifications fonctionnelles détaillées (SFD/FSD). Coordonner les activités de migration de données et validation des données (Data Migration, mapping, cutover, go-live). Gérer les phases de tests fonctionnels : SIT / UAT / tests de migration. Organiser et animer les ateliers métier et sessions de formation des utilisateurs clés. Assurer le suivi post-migration et le support hypercare. Identifier et gérer les risques, problèmes et dépendances du projet.
Freelance

Mission freelance
Workday Data Analyst (FINS & PSA)

INVESTIGO
Publiée le

450-500 £GB
Angleterre, Royaume-Uni
We are seeking an experienced Workday Finance & PSA Data Analyst to support the implementation of Workday Financials (FINS) and Professional Services Automation (PSA). The role will be responsible for end-to-end data analysis, validation, reconciliation, and reporting, ensuring the accuracy, consistency, and quality of financial and PSA data throughout the implementation lifecycle. Required Skills & Experience Demonstrated experience in a Workday Finance Data Analyst, Workday PSA Data Analyst, or comparable role. Strong hands-on expertise with Workday Financials and Workday PSA. Solid understanding of financial and PSA data structures, including customers, suppliers, projects, transactions, revenue, and costs. Proven ability to perform detailed data analysis, validation, and reconciliation. Experience supporting data conversion activities and testing phases within Workday implementations. Exceptional attention to detail, paired with strong analytical and problem-solving skills. Ability to thrive in fast-paced, delivery-driven environments and manage competing priorities effectively. At Investigo, we make recruitment feel easy. Let’s keep this simple. We’re all about your success, as your success is our business. We are part of The IN Group, a collection of six award-winning specialist brands that supply the globe with end-to-end talent solutions. With recruitment at the core of our business, we’ve been connecting people since 2003. Data & Privacy By applying, you consent to Investigo collecting and processing your data for the purpose of recruitment and placement, in accordance with applicable data protection laws. For more information, please refer to our Privacy Notice at weareinvestigo.com.
Freelance
CDI

Offre d'emploi
Chef de Projet Data / Delivery Master

CAT-AMANIA
Publiée le
Microsoft Excel

12 mois
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un Chef de Projet Data / Delivery Master pour le compte de notre client, acteur majeur dans le secteur des assurances . Au sein du Data Office , vous intégrerez le service Référentiels , dont la mission est de maintenir et de faire évoluer les référentiels stratégiques de l’entreprise (référentiel Personne, Véhicule, Immobilier). Vous jouerez un rôle central dans la coordination et l’accompagnement des équipes projets Data , en assurant la livraison des initiatives dans le respect des délais, des coûts et des standards de qualité, tout en faisant le lien entre les équipes techniques et les parties prenantes métiers. Présence demandée : 3 jours par semaine sur site à Niort. Vos missions principales 1. Rôle PMO au sein du service Suivi budgétaire des projets Saisie et suivi des collaborateurs dans l’outil Clarity 2. Pilotage des projets Data Planifier et organiser les projets de bout en bout (de la phase d’étude à la livraison) Coordonner des équipes pluridisciplinaires (Data Engineers, Data Scientists, Product Owners, etc.) Suivre les KPI projets et proposer des plans d’actions correctifs 3. Gestion de la qualité et des délais Garantir la livraison des projets dans les délais impartis et selon les exigences de qualité Veiller au respect des bonnes pratiques Data (Data Gouvernance, sécurité, conformité) 4. Gestion Agile Animer les cérémonies Agile (Daily, Sprint Review, Rétrospective) Favoriser une culture d’amélioration continue et de collaboration 5. Communication et gestion des parties prenantes Assurer une communication fluide entre équipes techniques, métiers et partenaires Préparer et animer les comités de suivi (COPIL, comités opérationnels) Gérer les attentes et les demandes d’évolution 6. Optimisation des processus Identifier et mettre en œuvre des axes d’amélioration des processus de delivery Automatiser et optimiser les flux de travail pour renforcer l’efficacité opérationnelle
CDI
Freelance

Offre d'emploi
Software Engineer Informatica/Talend

OBJECTWARE
Publiée le
Informatica Cloud (IICS)
Talend

3 ans
40k-61k €
400-550 €
Île-de-France, France
Technologies : Informatica IDMC CDI, Oracle, SQL Server. Services : Contribution à la mise en œuvre des solutions cloud Informatica (CDI), migration des applications PowerCenter sur site et Talend ; la conception, les tests et la documentation de la nouvelle solution Soutien aux équipes de projet et aux entités Axa en France ou à proximité/offshore (Europe, Asie, Amérique) Appliquer les meilleures pratiques de développement dans la livraison et soutenir les autres membres de l’équipe de développement Veiller au respect des directives de sécurité. Livrables : atelier, conception et documentation de conception ; le développement et la livraison d’applications CDI ; Rapport de tests non régressifs, optimisation des performances. Expertise : l’environnement anglais est obligatoire ; L’expertise en Informatica CDI est obligatoire ; Expertise en intégrations API ; Expertise en scripting Unix ; Une expertise sur Informatica PowerCenter ou Talend serait un atout ; Une expertise sur d’autres modules IDMC serait un atout ; Une expertise avec OpenPaaS ou des plateformes similaires serait un plus.
CDI

Offre d'emploi
Data Scientist - IA Générative & RAG F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Python

Rueil-Malmaison, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Cloud Network Expert (Azure / AWS)

Codezys
Publiée le
AWS CloudFormation
Azure
Azure Data Factory

6 mois
Paris, France
Contexte : Transformation digitale / Organisation dirigée par la technologie – Passage au Cloud Environnement international – Maîtrise de l’anglais professionnel requise Séniorité : 7 à 10+ années d’expérience 2) Objectifs & responsabilités principales Conception & déploiement Cloud Network Concevoir, déployer et maintenir des réseaux virtuels Azure & AWS selon une architecture Hub & Spoke Mettre en œuvre des architectures réseau cloud robustes, industrielles et évolutives Assurer la disponibilité et la performance des réseaux pour les applications Support & troubleshooting Supporter et diagnostiquer les incidents liés aux réseaux cloud (VPN, connectivité, performance) Garantir un niveau élevé de service et de disponibilité des environnements Azure/AWS Documentation & standardisation Produire la documentation technique : low-level design (LLD), configurations, plans de migration, procédures opérationnelles (RUN) Maintenir et enrichir en continu les référentiels techniques et documentations Collaboration & accompagnement projets Collaborer transverse avec les équipes internes (sécurité, infrastructure, projets) Recueillir les besoins, accompagner les déploiements et garantir la scalabilité, la sécurité et la conformité Participer à l’industrialisation via des templates et bonnes pratiques réseau Capacité, performance & résilience Contribuer à la planification de la capacité (capacity planning) Participer au tuning de la performance et à la définition de stratégies de résilience Mettre en œuvre les roadmaps d’upgrade, de patching, ainsi que les plans de PRA / Disaster Recovery Sécurité Cloud (rôle clé) Assurer un haut niveau de posture de sécurité des réseaux cloud publics Concevoir et optimiser des architectures réseau sécurisées selon les besoins Collaborer avec les parties prenantes pour réduire les risques et renforcer la sécurité 3) Livrables attendus Designs d’architecture réseau cloud (Hub & Spoke, connectivité hybride) Low Level Design (LLD) et documents d’implémentation Plans de migration réseau et documents de transition Procédures opérationnelles (RUN / exploitation) Templates d’architecture et standards réseau Roadmaps pour upgrades, patching, et plans de PRA / DR Scripts et modules d’automatisation (Terraform, Python, API)
Freelance
CDI

Offre d'emploi
Engineering Manager Senior sur Maison Alfort

EterniTech
Publiée le
Angular
Datadog
Java

1 an
Maisons-Alfort, Île-de-France
Je recherche pour un de mes clients un Engineering Manager senior sur Maison Alfort Contexte Au sein d’une Direction Digitale engagée, vous interviendrez sur la conception, le développement et l’exploitation de produits et plateformes Fintech au service d’entrepreneurs, partenaires bancaires et collaborateurs internes. Organisation en Feature Teams pluridisciplinaires, culture forte d’exigence (qualité, performance, sécurité), amélioration continue, industrialisation et excellence d’ingénierie. Collaboration Produit & Tech au cœur du modèle. Vos missions Vision & Stratégie Technique Porter la vision technique long terme sur votre périmètre Animer les choix d’architecture avec les Tech Leads / Staff Engineers Garantir la cohérence avec l’écosystème plateforme & les enjeux métiers Management & Pilotage d’équipes Encadrement de 2 à 3 squads (8 à 10 ingénieurs max) Coaching individuel & collectif Développement des compétences (hard & soft skills) Mise en place et respect des standards techniques & organisationnels Gestion d’ingénieurs en prestation (ESN) Roadmap & Delivery Co-construction des roadmaps avec les Lead PM Arbitrage, priorisation, sécurisation des engagements Suivi de la vélocité & amélioration du “right first time” Réduction des incidents & amélioration de la stabilité Collaboration & Gouvernance Synchronisation inter-équipes (Digital / DSI / partenaires) Gestion proactive des dépendances Représentation en instances produit & tech Expertise attendue Architecture & Engineering Systèmes distribués, APIs REST, services web Qualité, testabilité, observabilité (logs/metrics/traces) SLO/SLA, performance, sécurité applicative CI/CD, gestion d’incidents, post-mortems Cloud public (AWS/GCP/Azure), IaC & automatisation Delivery & Process Pilotage par la valeur KPIs de stabilité & qualité Discovery ? Exécution sécurisée Amélioration continue des ways of working Leadership Coaching & développement des talents Communication claire & impactante Gestion des conflits & arbitrages Décision pragmatique orientée impact Stack & Environnement Frontend : Angular, TypeScript Backend : Java, Spring Boot, PostgreSQL Architecture : Microservices, APIs REST, Kafka CI/CD : Maven, GitLab CI, Argo CD Monitoring : Datadog Cloud & IaC : AWS (EKS, Lambda, Glue), Terraform, Atlantis Outils : GitLab, SonarQube, GitHub Copilot
Freelance

Mission freelance
Data Platform Engineer

Cherry Pick
Publiée le
AWS Cloud
Python

12 mois
600-650 €
Paris, France
Objectifs Votre mission est de responsabiliser et de faire monter en compétence notre communauté de plus de 50 data engineers et data scientists. Agissant comme le lien essentiel entre les feature teams et les ingénieurs de la plateforme, vous serez le garant de l’adoption et de l’évolution de notre plateforme data en fournissant un support technique opérationnel, en partageant les bonnes pratiques et en animant des initiatives de partage de connaissances. Grâce à un engagement proactif, un support direct et une collecte continue de feedback, vous favoriserez un environnement collaboratif, innovant et à fort impact — garantissant que notre plateforme s’adapte en permanence et délivre une valeur maximale à ses utilisateurs. Missions principales 1. Support technique : Accompagner les data engineers et data scientists dans leurs problématiques techniques en fournissant des solutions opérationnelles, des conseils, des bonnes pratiques et un support via des interactions directes au sein de leurs équipes. S’assurer que la dette technique est identifiée, comprise et gérée via des plans d’actions, et participer aux tâches sous-jacentes. Fournir des outils pour aider à gérer cette dette (tests, automatisation, agents IA, …). Collaborer avec les équipes data platform et support afin de garantir que les problèmes au sein des pipelines data et de la plateforme data sont identifiés et résolus, améliorant ainsi l’expérience développeur globale. 2. Évangélisation : Promouvoir l’adoption de la plateforme data par une utilisation quotidienne, en démontrant sa valeur auprès des utilisateurs existants. Partager avec la communauté de pratique et les équipes internes les tendances du marché, outils et technologies liés aux plateformes data. 3. Montée en compétences des équipes : Évaluer le niveau actuel des équipes sur les outils et pratiques de la Data Platform et l’améliorer via des formations, des exercices et la résolution de problématiques réelles. Promouvoir et animer une communauté de pratique afin de construire des parcours de formation d’amélioration, des ateliers internes et des webinaires mettant en valeur les capacités de notre Data Platform. Créer du contenu technique tel que des articles de blog, tutoriels, projets exemples et documentation afin d’aider les développeurs à comprendre et utiliser efficacement notre plateforme. 4. Boucle de feedback : Collecter activement les retours de la communauté des développeurs afin de fournir des analyses et suggestions d’amélioration produit aux équipes d’ingénierie de la plateforme. Fournir des tests pertinents pour les actifs techniques produits par les ingénieurs de la Data Platform et s’assurer qu’ils correspondent aux usages actuels des feature teams. Représenter les data engineers et data scientists au sein de l’entreprise, en veillant à ce que leurs besoins et défis soient compris et pris en compte. Qualifications / Compétences requises Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité. Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout. Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente. Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python). Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement. Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés. Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif. Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français. Atouts supplémentaires : Expérience en développement produit agile et en méthodologie Scrum. Expérience de migration de pipelines data vers le cloud. Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud. Environnement technologique : AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … Data engineering : Airflow, Parquet, Apache Iceberg DevOps : Jenkins, SonarQube, Conda Logiciels : Python, Ruff
CDI

Offre d'emploi
Développeur IA / AI Engineer - Paris H/F

Webnet
Publiée le
Cloud
Docker
Intelligence artificielle

45k-55k €
Paris, France
Dans ce cadre de projets chez nos clients grands compte, nous recherchons un Développeur IA pour concevoir, intégrer et industrialiser des modèles d’intelligence artificielle. Vous participez au développement des solutions intégrant des technologies d’intelligence artificielle pour automatiser des processus métier et créer de nouveaux produits numériques. Vous interviendrez sur l’ensemble du cycle de vie des solutions IA : conception, développement, intégration et optimisation. Vous aurez pour missions : Concevoir et développer des solutions basées sur l’intelligence artificielle Intégrer des modèles de machine learning et LLM dans des applications Développer des API et services backend pour exposer les fonctionnalités IA Participer à la mise en production et à l’industrialisation des modèles Optimiser les performances des pipelines data et des modèles Collaborer avec les data scientists, product owners et équipes produit Mettre en place des bonnes pratiques de MLOps et monitoring
Freelance

Mission freelance
Architecte CRM Salesforce (Service Cloud)

Mon Consultant Indépendant
Publiée le
CRM
Microsoft Power BI
Node.js

12 mois
500-600 €
Nantes, Pays de la Loire
Contexte : Grand acteur national du secteur des services et de la mobilité, notre client mène une transformation digitale ambitieuse visant à offrir une expérience client omnicanale fluide et performante. Dans ce cadre, la Direction Clients & Numérique recherche un Architecte CRM Salesforce pour intervenir sur un écosystème CRM structurant, au cœur des services digitaux et des applications métiers. L’environnement comprend : CRM Salesforce Service Cloud (BtoC & BtoB) Applications agents (Salesforce / Heroku) Fronts web et applicatifs connectés au CRM DataLake Azure Power BI Marketing Cloud 🎯 Missions : En tant qu’Architecte CRM, vous aurez un rôle transverse et stratégique : Analyse des releases Salesforce et études d’impacts Définition des bonnes pratiques de développement Supervision de l’architecture fonctionnelle et technique Pilotage du backlog technique CRM Identification des dépendances inter-applicatives Conception des nouvelles fonctionnalités transverses Documentation d’architecture (Confluence) Gouvernance des environnements : Gestion des métadonnées Stratégie de branches et déploiements Gestion des environnements et refresh Contrôle des versions Vous contribuerez activement à la robustesse, la qualité et la pérennité du CRM. 🛠 Compétences requises : Indispensables : Maîtrise avancée de Salesforce Service Cloud Expertise Platform Salesforce / LWC / Community Certification Salesforce Administrateur (ADX201) Expérience Agile (minimum 2 ans) Connaissances RGPD Maîtrise JIRA & Confluence Atouts : Certification Développeur Salesforce APEX, Visualforce, SOQL, Aura, LWC Développement API / Web services NodeJS / ReactJS / VueJS Heroku & Heroku Connect Marketing Cloud Power BI Azure DataLake
Freelance

Mission freelance
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP

PROPULSE IT
Publiée le
Azure
Cloud

24 mois
325-650 €
Paris, France
Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess
Freelance

Mission freelance
Data Engineer Senior - Data Warehouse

Cherry Pick
Publiée le
Audit
Azure
Azure Data Factory

6 mois
600-680 €
Île-de-France, France
Dans un contexte de transformation, la fiabilité de la donnée est devenue un enjeu critique pour le pilotage financier et opérationnel. Contexte & Enjeux Un socle de Data Warehouse a été initié suite à la refonte du SI, mais celui-ci reste aujourd’hui : incomplet, instable (bugs, latences importantes), avec des problématiques de qualité et de disponibilité de la donnée. Le reporting Power BI est géré en interne. 👉 La mission ne concerne pas la data visualisation , mais bien la construction d’un Data Warehouse robuste, industrialisé et exploitable . Nous recherchons un Data Engineer senior / consultant expérimenté capable de reprendre l’existant, de comprendre les enjeux métiers (notamment contrôle de gestion) et de livrer un socle data fiable dans des délais courts. Missions1. Audit & Diagnostic Analyse de l’existant (modèle de données, flux, performances, qualité) Identification des causes de lenteur, bugs et données manquantes Évaluation de la cohérence entre besoins métiers et implémentation technique 2. Modélisation & Refonte du Data Warehouse Reprise et optimisation de la modélisation DWH Structuration d’un réceptacle de données cohérent et évolutif Intégration des flux issus des nouveaux outils : Cegid XRP Microsoft Dynamics Ammon 3. Ingénierie de données (ETL / ELT) Refactorisation et complétion des pipelines existants Mise en place de l’historisation des données Amélioration des performances et de la fiabilité des traitements 4. Qualité, Traçabilité & Documentation Mise en place de contrôles de qualité automatisés Gestion de la traçabilité et des règles de gestion Documentation du socle data pour sécuriser et pérenniser l’existant 5. Interface Métier Compréhension fine des besoins des opérationnels (indicateurs, chiffres, règles de gestion) Traduction des besoins métier en spécifications techniques Capacité à challenger les demandes pour garantir la cohérence globale du modèle
Freelance

Mission freelance
Développeur CRM Salesforce Service Cloud

Mon Consultant Indépendant
Publiée le
Azure
Microsoft Power BI
Node.js

12 mois
300-400 €
Nantes, Pays de la Loire
Contexte : Dans le cadre du renforcement d’un pôle digital dédié aux services clients, nous recherchons 3 Développeurs CRM Salesforce Service Cloud expérimentés . Vous intégrerez une équipe Agile structurée (Scrum Master, PPO, Architecte CRM, UX/UI, Lead Dev). Le CRM est au cœur d’un écosystème applicatif interconnecté : plateformes web, applications agents, services omnicanaux, outils marketing et reporting. 🎯 Missions : Développement des User Stories en environnement Agile (JIRA) Conception technique et fonctionnelle Développements Salesforce (Service Cloud) Tests unitaires Code Review Déploiements (Merge Request) Documentation Confluence Participation aux cérémonies Agile Intégration des WebApps avec Salesforce Mise en œuvre d’API et interconnexions SI MEP en heures ouvrées ou non ouvrées selon contexte 🛠 Compétences indispensables : Salesforce Service Cloud (2 ans minimum) Certification Salesforce Developer APEX, Visualforce, SOQL, LWC, Aura Développement API / Web services Connaissance RGPD Expérience Agile (2 ans minimum) JIRA / Confluence ➕ Compétences appréciées : NodeJS / Express / SQL ReactJS / VueJS PWA Heroku Marketing Cloud Power BI Azure / AWS Outils de satisfaction client
Freelance

Mission freelance
Cloud Ops Engineer GCP

CAT-AMANIA
Publiée le
AWS Cloud
Cloud Provider
Google Cloud Platform (GCP)

1 an
100-450 €
Lille, Hauts-de-France
Gérer l’organisation des 2 principaux Cloud providers : GCP et AWS Proposer, de part votre expérience sur le Cloud, de nouvelles approches de déploiement, gestion et exploitation de systèmes sur le Cloud. Scripting/automatisation/Infrastructure As Code : industrialisation des solutions avec des outils/langages tels que Terraform, Python, CloudFormation… Développer et mettre à disposition des reporting et tour de contrôle (inventaire et qualité) permettant d’informer nos utilisateurs et notre équipe de la qualité et évolution de nos environnements. Coder des applications (API, orchestration) en Python en utilisant les bonnes pratiques de code. Écrire et sensibiliser aux bonnes pratiques d’utilisation du Cloud avec également la formation de nos équipes techniques. Collaborer étroitement avec nos équipes de sécurité pour la gestion des alertes et du renforcement de nos process techniques et fonctionnels.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

4296 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous