L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 825 résultats.
Offre d'emploi
Ingénieur Intégration & Parsing des Journaux SOC
Publiée le
Apache Kafka
CI/CD
Cloud
1 an
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons un Ingénieur Intégration & Parsing de Journaux pour rejoindre l’équipe Cybersécurité au sein du Centre des Opérations de Sécurité (SOC) . Rôle et responsabilités Le consultant sera responsable de la gestion complète du processus de collecte des journaux provenant des environnements cloud et on-premise , ainsi que des outils de sécurité soutenant les opérations SOC 24/7 . Rattaché au responsable de l’équipe Build, il travaillera en étroite collaboration avec les parties prenantes Cybersécurité, IT et Métiers pour garantir une intégration robuste, évolutive et sécurisée des journaux . Principales missions : Concevoir, mettre en œuvre et maintenir les pipelines de collecte et de parsing des journaux. Gérer et optimiser les systèmes d’ingestion et de transfert des logs via des outils tels que Fluentd ou Kafka . Développer des parsers avancés pour normaliser et structurer les données selon des schémas spécifiques. Mettre en place des parsers-as-code pour intégrer de grands volumes de données issues de sources personnalisées. Garantir la qualité, la fiabilité et la standardisation des journaux sur l’ensemble des systèmes intégrés. Collaborer avec les équipes réseau, les responsables applicatifs et les analystes SOC pour intégrer de nouvelles sources de logs. Maintenir les règles de parsing, de normalisation et d’enrichissement pour l’ingestion SIEM (Elastic SIEM ou équivalent). Diagnostiquer et résoudre les problèmes d’ingestion ou de parsing en coordination avec les équipes concernées. Mettre en place des pipelines CI/CD pour le déploiement automatisé des configurations d’intégration. Appliquer des pratiques DevSecOps pour sécuriser et automatiser les flux d’ingestion. Surveiller en continu les pipelines d’ingestion et contribuer à leur amélioration. Participer à la création de parsers à l’aide d’ IA agentique . Maintenir la documentation et les schémas techniques des workflows d’intégration. Livrables attendus Pipelines d’ingestion et de parsing opérationnels. Documentation technique et schémas d’architecture. Scripts et configurations CI/CD. Tableaux de bord de suivi et d’amélioration continue. Compétences et qualifications requisesTechniques Expérience avérée en tant qu’ Ingénieur Intégration de Journaux , Ingénieur Plateforme ou Ingénieur Cloud dans un contexte SOC ou cybersécurité. Maîtrise des outils de collecte et de traitement des logs ( Fluentd , Logstash , Kafka …). Bonne compréhension des techniques de parsing, normalisation et enrichissement (ASIM, UDM, OCSF, DSM, ECS, CIM, CEF, LEEF…). Solide connaissance des services AWS, GCP et Azure liés à la supervision et à la journalisation. Expérience avec les outils CI/CD (GitLab CI/CD, Jenkins…). Maîtrise de Ruby (développement de plugins Fluentd) et de Python/Bash . Familiarité avec les solutions SIEM (Google SecOps, Elastic SIEM, Sentinel, Splunk ou équivalent). Compréhension des concepts de cybersécurité , détection , et opérations SOC . Pratique des approches DevSecOps et de l’automatisation. Connaissance des formats de règles SIGMA et YARA .
Mission freelance
DevOps Senior
Publiée le
AWS Cloud
Gitlab
Helm
3 mois
550-730 £GB
Rennes, Bretagne
Télétravail partiel
🚀 DevOps Senior – Migration Cloud AWS / Kubernetes / Cloud Privé – Rennes / Bretagne – Freelance 🚀 Dans le cadre d’un projet stratégique de transformation Cloud au sein d’un leader européen de l’identité numérique, je recherche en priorité un expert AWS & Kubernetes pour accélérer la migration d’un environnement cloud privé open source (Proxmox / Ceph / Kubernetes Debian) vers AWS (EKS, services managés) . 🎯 Missions principales • Contribuer à la migration vers AWS (EKS, VPC, RDS/Aurora, sécurité, networking) • Industrialiser l’Infrastructure-as-Code ( Terraform : modules, bonnes pratiques) • Participer à la migration MongoDB / MariaDB vers des services managés AWS • Optimiser les pipelines CI/CD ( GitLab , Helm) • Maintenir et faire évoluer un environnement cloud hybride critique • Collaborer avec l’équipe R&D sur l’ authentification automatisée et la signature dématérialisée • Apporter des recommandations pour garder un coup d’avance technologique (dont IA générative) 🛠️ Compétences techniques attendues • Expertise AWS (EKS, RDS/Aurora, VPC, services managés) • Expertise Kubernetes (production, scaling, sécurité, troubleshooting) • Terraform ( autonomie complète indispensable ) • GitLab CI / Helm • Migration de données (MongoDB, MariaDB) • Connaissance des environnements réglementés appréciée (finance, identité, etc.) 👤 Profil recherché • Expérience solide en migration cloud d’applications critiques • Capacité à challenger, structurer et accélérer les décisions d’architecture • Anglais opérationnel (contexte européen) • Excellent niveau de communication & leadership technique 💼 Conditions de mission 📍 Localisation : mission basée à Rennes (35) 💬 Full remote envisageable uniquement si le profil coche réellement toutes les cases (expertise démontrée & forte autonomie), ➡️ Sinon : 3 jours de présentiel par semaine sur site. • Statut : Freelance • Durée : 3 mois renouvelables (stratégie cloud jusqu’en 2027) • Démarrage : ASAP — idéalement dès la semaine prochaine • TJM : selon niveau d’expertise 📩 Candidatures & Recommandations 👉 Envoyez CV / LinkedIn / GitHub à : Confidentialité garantie, réponse rapide.
Mission freelance
Tester Analyste de tests & validation SAP FICO
Publiée le
SAP FICO
6 mois
400-530 €
Île-de-France, France
Télétravail partiel
Etablir une stratégie de test en se basant sur nos Template. - Construire le référentiel de tests (cahier de tests) sur ses sujets, - Exécuter les campagnes de tests (fonctionnels, flux, TNR & bout en bout) - Produire un reporting d'avancement sur ses sujets, - Suivre les risques et leurs plan d'action. - Tracer, analyser et suivre les anomalies, - Coordination avec les patries prenantes, Compétences Requises : - SAP S4 HANA finance, - Métier de la fiance, - HP ALM, - Jira, - Français Parlé, écrit et lu - Certification ISTQB Fondation souhaitée.
Mission freelance
Ingénieur Système Windows - Expertise EDR/Antimalware
Publiée le
Cybersécurité
DNS
Firewall
6 mois
Luxembourg
Télétravail partiel
L'Ingénieur Système rejoindra la division « IT, Platform, Virtualization & Servers» du service PRI (Production Informatique) pour administrer, maintenir et mettre à jour les plateformes Antimalware / EDR . Il sera le point de contact privilégié et le référent technique des équipes système et celles de sécurité. Missions Principales: Gérer l'administration et la mise à jour des plateformes EDR/Antimalware. Optimiser les exclusions, les policies et les niveaux d’agressivité (IA, etc.) des fonctionnalités avancées. Assurer le suivi avec les fournisseurs en anglais. Mener une veille technologique avancée sur les nouveautés features / paramètres de sécurité. Participer au « day-to-day », aux projets, à l'amélioration/fiabilisation des systèmes et au traitement des tickets de Niveau 3 . Rédiger la documentation et effectuer le transfert de connaissances aux équipes.
Mission freelance
Architecte d'Entreprise DLP
Publiée le
Architecture
Prévention des pertes de données (DLP)
TOGAF
3 ans
Paris, France
Télétravail partiel
🔍 Nous recherchons un Enterprise Security Architect expérimenté pour intervenir sur un projet majeur de Data Loss Prevention (DLP) au sein d’un programme global de cybersécurité. Objectif : définir le modèle DLP groupe, le blueprint d’architecture, les scénarios de fuite, et cadrer les exigences des entités. 📍 Paris 📅 Démarrage ASAP ✅ Co-concevoir le modèle DLP & le storytelling (enjeux, risques, gouvernance) ✅ Analyser l’architecture Data & sécurité du Groupe et identifier les risques de fuite ✅ Définir & documenter de nouveaux scénarios : server-to-server, IA, agentic AI… ✅ Consolider les exigences DLP des entités internationales ✅ Évaluer les risques & mesures de prévention associées ✅ Produire les livrables exécutifs : – Blueprints & templates d’architecture – Use cases (Confluence) – Présentations PowerPoint – Meeting minutes, mise à jour SharePoint ✅ Piloter les échanges et maintenir une approche architecture high-level (pas d’implémentation)
Offre d'emploi
DATA ANALYSTE Communication Digitale
Publiée le
Transformation digitale
18 mois
40k-45k €
100-400 €
Paris, France
Télétravail partiel
CONTEXTE La prestation se déroulera pour le compte de la direction de la communication digitale pour conduire les analyses quantitatives et qualitatives relatives à la réputation sur les réseaux sociaux et le web. MISSIONS : Cette prestation aura pour objectif de : - Assurer une veille continue et réactive des sujets de discussions sur les réseaux sociaux et le web, au travers d’outils de social listening - Rédiger en temps limité des notes d'analyse des retombées sur ces sujets (des notes quotidiennes, mensuelles, thématiques, ad hoc…) - Assurer une veille en temps réel des sujets de crise et, régulièrement, d’émissions en direct durant leur diffusion en soirée -Assurer une veille à hauteur de 1 à 2 week-ends par mois (9h30 – 18h30) – A discuter en fonction de vos disponibilités - Effectuer des études réputationnelles dans le cadre d’opérations de marketing d’influence - Construire des recommandations stratégiques et éditoriales à l'attention de l'équipe de la Direction de la communication digitale et des autres Directions du Groupe Expertises demandées pour la réalisation de la prestation : - Une expérience d’au moins un an dans le secteur des médias et/ou dans le secteur public sont un prérequis. - Au moins 5 ans d’expériences similaires, en social listening. Une maîtrise préalable avancée d’outils de social listening est attendue. La maîtrise de Talkwalker sera très appréciée. Une expérience extensive avec X Pro (Tweetdeck) constitue un avantage pour la prestation, de même que des connaissances dans l’utilisation de Gephi et d’outils d’IA générative. - Des expériences en matière d’études réputationnelles et de marketing d’influence, ainsi que la maîtrise d’outils de recherche et d’analyse de profils d’influenceurs, constituent un avantage fort pour la prestation. - Une excellente aisance rédactionnelle est nécessaire. - Des connaissances étendues sur les sujets sociétaux, politiques, médiatiques et numériques devront pouvoir être mobilisées. Spécifiquement, des connaissances sur le fonctionnement des principaux réseaux sociaux sont attendues.
Mission freelance
DEVIENS #AUTEUR DE VIDEO GitHub Copilot
Publiée le
Copilot
Développement
Github
4 mois
100-300 €
Saint-Herblain, Pays de la Loire
Télétravail partiel
Nous sommes une maison d'édition spécialisée dans la publication de livres et vidéos autour de l'informatique et de la bureautique. Nous recherchons un(e) professionnel(le) de l'IT pour la prochaine publication de notre vidéo qui portera sur GitHub Copilot. "Pourquoi pas moi ? Je suis développeur(euse) Full-stack ou Backend, Tech Lead ou formateur(trice)... et GitHub Copilot et l'IA n'ont aucun secret pour moi. J’ai envie de partager mon expertise au plus grand nombre ! Participer à la création d'une vidéo me permettra de renforcer ma crédibilité et de mettre à profit mes connaissances." Vous bénéficierez d'un accompagnement éditorial (sommaire, essai, méthodologie, suivi, montage vidéo...) La rémunération est proposée sous forme de forfait.
Mission freelance
Senior Data Engineer Python - AWS Cloud F/H
Publiée le
AWS Cloud
Databricks
PySpark
6 mois
550 €
Paris, France
Télétravail partiel
Notre client dans le secteur Énergie et ressources naturelles recherche un Senior Data Engineer Python – Environnement AWS Cloud H/F Descriptif de la mission: Objectifs et livrables L’entreprise recherche une prestation de Senior Data Engineer externe, curieux(se) et engagé(e), pour rejoindre une équipe data. Le profil externe sera responsable de : - Construire des data pipelines scalables - Concevoir des modèles de données robustes - Délivrer des solutions data de haute qualité dans un environnement collaboratif Missions / Responsabilités principales • Collaboration métier - Travailler en étroite collaboration avec les parties prenantes métier pour comprendre les besoins - S’assurer que les produits data répondent aux objectifs de l’organisation • Modélisation et architecture de données - Concevoir et implémenter des modèles de données robustes, scalables, maintenables et facilement consommables par d’autres produits et par les data analysts - Optimiser l’architecture data et les solutions de stockage pour la performance, le coût et l’accessibilité - Maintenir des formules de calcul de données complexes • Pipelines et traitements de données - Construire et maintenir des pipelines de données scalables pour des processus ETL/ELT - Assurer un flux de données fiable et efficient à travers les systèmes - Développer des solutions data en Python pour manipuler, transformer et préparer les workflows d’ingestion de données • Environnement Cloud et outillage - Utiliser les services cloud AWS (ex. Lambdas, Step Functions, S3, RDS, etc.) pour l’orchestration, le traitement et la livraison de données - Exploiter Databricks et pySpark (Unity Catalog…) pour les traitements distribués - Collaborer avec les équipes backend pour aligner les intégrations de services et les implémentations techniques • Qualité, performance et industrialisation - Participer aux revues de code, discussions de design et activités de planification logicielle - Mettre en place, monitorer et tester les standards de qualité des données pour garantir précision, cohérence, fiabilité et performance optimale des actifs data - Prendre en charge et faire preuve d’initiative sur la qualité des données, la performance des systèmes et l’amélioration continue de l’infrastructure data Profil et compétences recherchées Compétences techniques requises - Python (pandas, pydantic, tests unitaires, linting, formatting…) : niveau 4/4 - GitHub (GitHub Actions – workflows CI/CD) : niveau 2/4 - Plateforme AWS Cloud (Lambdas, Step Functions, S3, RDS…) : niveau 3/4 - Databricks / pySpark (Unity Catalog…) : niveau 2/4 - Connaissances de base en Terraform ou forte appétence pour l’apprendre : niveau 1/4 - Bases de données SQL : PostgreSQL, clients SQL et outils d’administration (ex. DBeaver) : niveau 4/4 - Compétences linguistiques anglais et français : niveau 4/4 (bilingue / courant dans les deux langues) Mindset / état d’esprit - Agilité - Envie de comprendre le business et ses valeurs fondamentales - Curiosité technique et implication dans des solutions transverses - Forte orientation résolution de problèmes - Engagement dans l’apprentissage continu et l’adaptation aux technologies en évolution - Participation et contribution aux activités et projets du chapitre data engineering Soft skills - Communication claire en français et en anglais - Attention au détail - Capacité à travailler de manière autonome et en équipe - Forte exigence sur la qualité du code, la documentation et la collaboration - Idéalement, capacité à vulgariser la technique pour communiquer avec les équipes métier sur des sujets technologiques Détails de la mission - Date de démarrage souhaitée : 16/02/2026 (au plus tard) - Localisation : Paris - Modalités de travail : • 2 jours par semaine en télétravail • 3 jours par semaine sur site à Paris Planning et étapes de sélection - Clôture de la consultation / date limite des propositions : 18/01/2026 - Envoi des tests techniques (codingame avec proctoring) : 19/01/2026 • À compléter par les profils dans les 72h après réception, avant le vendredi 23/01/2026 - Soutenances techniques : entre le 27/01/2026 et le 02/02/2026 Compétences demandées : - AWS Cloud platform : niveau Confirmé - SQL Databases : niveau Expert - PySpark : niveau Avancé - Databricks : niveau Avancé - GitHub : niveau Avancé - Terraform : niveau Élémentaire - Python : niveau Expert Langue - Anglais : niveau Bilingue - Français : niveau avancé (équivalent bilingue, requis pour la communication et la documentation) Compétences / Qualités indispensables: Français et anglais courants, Python : niveau Expert AWS Cloud platform : niveau Confirmé, SQL Databases : niveau Expert, PySpark : niveau Avancé, Databricks : niveau Avancé, GitHub : niveau Avancé, Terraform : niveau Élémentaire,
Offre d'emploi
BA-Test Manager H/F
Publiée le
Confluence
JIRA
3 mois
40k-45k €
400-550 €
Rennes, Bretagne
Télétravail partiel
Description : Dans le cadre d'un projet en responsabilité, nous recherchons un Test Manager / Business Analyst. Cette personne sera en charge de la coordination des activités de test et de recette, ainsi que de l'analyse des besoins métier. Ses missions principales incluent : Coordination de la recette générale : Planifier et organiser les activités de test en collaboration avec les équipes projet. Assurer la synchronisation entre les équipes fonctionnelles, techniques et les parties prenantes. Animer les réunions de suivi et de restitution des tests. Suivi de la recette : Définir et mettre en place des indicateurs de performance pour mesurer l'avancement des tests. -Élaborer des rapports de suivi pour communiquer l’état de la recette aux différentes parties prenantes. Identifier et suivre les anomalies, assurer leur traçabilité et leur résolution. Exécution des tests : Concevoir et rédiger des scénarios de test fonctionnels et techniques, en s’assurant de leur couverture par rapport aux exigences métiers. -Superviser l’exécution des tests et garantir que les résultats soient conformes aux spécifications. -Recueillir et analyser les retours des utilisateurs lors des phases de tests. Analyse des besoins : Collaborer avec les équipes métier pour identifier, analyser et documenter les besoins fonctionnels. Proposer des solutions adaptées aux besoins exprimés et participer à l’élaboration des spécifications fonctionnelles détaillées. Environnement fonctionnel & technique : Compétences requises : Expérience significative en gestion de tests et en coordination de recettes sur des projets similaires. Connaissance des méthodologies Agile et des outils de gestion de tests (XRAY) , de JIRA et Confluence Compétences en analyse métier et rédaction de spécifications fonctionnelles. Excellentes capacités de communication et de travail en équipe. Capacité à gérer les priorités et à respecter les délais. Expérience de 6 ans minimum en tant que Test Manager, Business Analyst ou sur des postes similaires dans un environnement web et mobile.
Mission freelance
Chef de projet CRM
Publiée le
Salesforce Sales Cloud
12 mois
Paris, France
Télétravail partiel
Cherry Pick est à la recherche d'un Chef de projet CRM pour l'un de ses clients dans le secteur de l'écologie. 🎯 Mission Rattaché·e au Pôle Produit, Data & IA et en étroite collaboration avec les équipes métiers, produit, CRM/Digital Factory et l’équipe transverse Web, le/la Chef·fe de projet CRM & Sites institutionnels pilote la feuille de route, la cohérence et la valeur d’usage de deux assets clés de la relation avec les différents publics de l’entreprise : L’écosystème CRM (principalement Salesforce) Les sites institutionnels de l’entreprise et de ses filiales Il/elle garantit la performance, la qualité et l’évolution de ces deux dispositifs, dans une logique unifiée connaissance – relation – information au service de la mission globale de l’organisation. L’objectif : faire du CRM et des sites institutionnels des leviers clés de connaissance, transparence, efficacité et engagement auprès des clients, partenaires, collectivités, citoyens et acteurs de l’écosystème. 🎼 Rôle Le/la Chef·fe de projet CRM & Sites institutionnels est : Le chef d’orchestre de la relation Client et Collectivités unifiée , via les processus et outils CRM. Le garant du bon fonctionnement, de l’évolution et de la gouvernance des sites institutionnels , en coordination avec les métiers, les développeurs et l’agence en charge du webmastering/SEO. Il/elle assure la cohérence globale de l’expérience digitale, en combinant approche data-driven , vision client 360° , qualité de l’information et excellence opérationnelle . 📌 Responsabilités principales 1. Stratégie CRM & Sites Web Exécuter la stratégie CRM en cohérence avec les priorités métiers et la stratégie globale de l’entreprise. Positionner le CRM comme socle unifié de la relation client/partenaire, de la prospection à la fidélisation. Identifier et prioriser les cas d’usage à forte valeur. Garantir la cohérence entre Salesforce et les autres briques technologiques. Définir, structurer et maintenir la roadmap d’évolution des sites institutionnels. Aligner les évolutions avec les priorités métiers, réglementaires et communication. Assurer une expérience utilisateur cohérente, fiable, inclusive et conforme aux standards d’accessibilité. 2. Pilotage & Roadmap CRM Construire et maintenir la feuille de route CRM. Piloter les évolutions fonctionnelles : backlog, arbitrages, recettes, déploiements. Superviser les projets d’intégration et d’interopérabilité avec les autres outils. Garantir la disponibilité, la performance et la fiabilité du dispositif CRM. 3. Coordination transverse des projets Web Coordonner les évolutions avec les métiers, les développeurs, l’agence de webmastering/SEO, les équipes contenu, la gouvernance. Piloter l’instruction et la priorisation des demandes. Assurer la qualité des livrables. 4. Gouvernance & Qualité Mettre en place et animer la gouvernance CRM : processus, règles de gestion, documentation. Garantir la qualité, la sécurité des données et la conformité RGPD. Suivre les KPI CRM : adoption, complétude, satisfaction utilisateurs, valeur business. Suivre et améliorer la performance des sites : qualité technique, accessibilité, conformité, continuité de service. Assurer la cohérence et la qualité des contenus, dans le respect de la gouvernance éditoriale. 5. Collaboration & Accompagnement Travailler étroitement avec les directions métiers pour comprendre les besoins et irritants. Fédérer la communauté d’utilisateurs CRM (key users, référents, ambassadeurs). Favoriser l’adoption : communication, formation, support, conduite du changement. Intégrer les retours utilisateurs dans une démarche d’amélioration continue. Coordonner les actions SEO avec l’agence. Accompagner les métiers dans la production et la mise à jour des contenus. 6. Innovation & Évolution du Produit Assurer une veille sur Salesforce, l’automatisation, la personnalisation, l’IA. Tester puis déployer les fonctionnalités à fort potentiel. Développer les synergies entre CRM, Data et Produit. Promouvoir une approche responsable et éthique de la donnée client.
Mission freelance
Architecte Data IoT
Publiée le
Apache Kafka
Architecture
IoT
12 mois
730-750 €
Lille, Hauts-de-France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Architecte Data IoT" pour un client dans le secteur du retail. Description La Data est centrale dans notre écosystème IoT : elle alimente la BI, la maintenance prédictive, la détection d'accidents et la conception intelligente de nos futurs produits. 🎯 Votre Mission : Architecturer la Data de l'IoT du Groupe Au sein de l'équipe "Cloud IoT Platform - Data Solution", vous agissez en tant que Data Architect / Lead Engineer . Vous êtes le garant des choix techniques et de l'architecture permettant d'ingérer, stocker et exposer les données venant du Cloud, des "Devices" et du Mobile. Vos responsabilités clés : Architecture & Stratégie : Imaginer et concevoir l'architecture Data pour collecter les données IoT (directement des appareils ou via mobile). Définir la stratégie des stacks techniques et garantir les standards d'architecture. Assurer l'alignement entre la vision technique, les priorités business et les besoins utilisateurs. Engineering & Pipelines : Construire des pipelines de données (structurées et non structurées) robustes et scalables. Maintenir et redesigner les pipelines existants pour servir de nouveaux cas d'usage (Analytics, IA, etc.). Garantir l'industrialisation des processus de transformation et le CI/CD. Qualité & Gouvernance : Assurer la scalabilité, l'élasticité et la fiabilité des infrastructures. Garantir la qualité de la donnée, son accessibilité, ainsi que le respect des normes de Privacy et Data Governance (Lineage). Leadership Technique : Contribuer activement à la communauté des Data Engineers. Assurer une veille technologique constante pour orienter la sélection des nouveaux outils. 🛠 Environnement Technique Langages : Python, Scala, Java. Big Data & Streaming : Kafka, Spark. Cloud & Infrastructure : AWS (Lambda, Redshift, S3), Microservices. Concepts : Systèmes distribués, Data Modeling, Real-time data exchanges.
Mission freelance
MOE/Analyste/Concepteur mainframe (Le Mans - 2j de TT/semaine)
Publiée le
COBOL
IBM Db2
1 an
350-550 €
Le Mans, Pays de la Loire
Télétravail partiel
Nous recherchons un MOE / Analyste / Concepteur Mainframe pour intervenir sur des activités de run (MCO) et/ou sur des projets d’évolution applicative . La mission comprend la participation aux différentes phases du cycle de vie des applications : Analyse des besoins et rédaction des spécifications techniques Conception des solutions Développements Mainframe Réalisation des tests unitaires Préparation et réalisation des livraisons Une présence sur site au Mans au minimum 3 jours par semaine est requise.
Offre d'emploi
Data Engineer / Data Analyst Senior – Environnement Cloud & Big Data
Publiée le
Cloud
Data analysis
Microsoft Power BI
3 ans
75017, Paris, Île-de-France
Nous recherchons un expert data capable de concevoir, structurer et optimiser des solutions data modernes pour accompagner la croissance et les enjeux business d’une organisation en pleine transformation numérique. Votre rôle sera central : transformer la donnée en levier stratégique, garantir sa qualité et développer les pipelines, modèles et analyses qui permettront aux équipes métiers de prendre de meilleures décisions. 🎯 Livrables & responsabilités Concevoir et mettre en œuvre des solutions data complètes pour répondre aux besoins business. Analyser, interpréter et valoriser des données complexes pour produire des insights actionnables. Travailler avec des équipes pluridisciplinaires (IT, produit, métier, sécurité…) afin d’identifier et résoudre les problématiques data. Développer et maintenir des pipelines de données , des modèles analytiques et des outils de reporting. Garantir la qualité, l’intégrité et la sécurité des données sur tout leur cycle de vie. Fournir une expertise technique et des recommandations pour soutenir la prise de décision data-driven. 🧩 Expertise requise 5 ans d’expérience minimum en data engineering, data analytics ou poste similaire. Expérience solide dans la livraison de solutions data dans des environnements dynamiques. Maîtrise des architectures et technologies data modernes : plateformes cloud (AWS, Azure, GCP), frameworks Big Data, data warehousing. Excellentes compétences en Python, SQL, Spark . Maîtrise de la modélisation de données , des processus ETL et des pipelines de transformation. Expertise sur les outils de visualisation et de reporting : Power BI, Tableau . Connaissance des bonnes pratiques de gouvernance, sécurité et conformité des données.
Offre d'emploi
Administrateur de bases de données - Assurance H/F
Publiée le
40k-50k €
France
Télétravail partiel
Contexte de la mission : Viveris vous propose un poste d'Analyste fonctionnel spécialisé dans la conception et la modélisation de données (DBA) dans le cadre de la création d'un référentiel Assurance. L'objectif est de mieux connaître le portefeuille de contrats, de maîtriser les risques et d'optimiser les processus de souscription. Au sein du département Épargne de la DSI de notre client mutualiste, vous rejoindrez une équipe projet dont la mission est de contribuer au cadrage du projet et de participer à sa mise en oeuvre (spécifications fonctionnelles, recette, etc.), dans le respect de la gouvernance des projets du Groupe. Responsabilités : *Concevoir un modèle de données relationnel robuste et normalisé qui permette de gérer l'intégralité des données et des fonctionnalités attendues ; *Modéliser en 3ème forme normale le modèle de données (base de données) de l'application ; * Conseiller les business analystes et les développeurs pour que le modèle de données supporte les écrans de saisie, les interfaces, les traitements des workflows de validation, et les règles métiers ; *Rédiger et contribuer aux livrables du projet : cdc, spécifications, users stories etc. ; *Animer les ateliers avec les équipes projet et Métiers.
Offre d'emploi
Administrateur plateforme téléphonie (Genesys) H/F
Publiée le
45k-50k €
Orléans, Centre-Val de Loire
Vos missions sont les suivantes : Assurer l'administration et le support de la plateforme Genesys (Engage, GAX, CME, Cloud, SIP Remote, Mediabarre, Bria, WFM). Contribuer à l'amélioration continue des parcours clients (Routage, SVI IA, WebCallback, Bandeau, Statistiques) et de la performance des traitements des flux clients multicanaux. Contribuer à la définition et à l'évolution de la solution Genesys et à sa mise en œuvre opérationnelle. Conseiller les équipes métiers dans l'expression de leurs besoins. Elaborer les documentations fonctionnelles et techniques liée à Genesys : guides utilisateurs, supports de formation, accompagnement des utilisateurs. Assurer le suivi du SAV de l'outil auprès des utilisateurs par le traitement des incidents et demandes via Service Now en lien avec les équipes support et les utilisateurs finaux.
Offre d'emploi
Lead ML Engineering
Publiée le
Machine Learning
3 mois
Paris, France
Télétravail partiel
la prestation consistera à : • Définir l'architecture et la feuille de route technique, en tenant compte des exigences de performance, de scalabilité et de sécurité • Accompagner les membres de l’équipe pour garantir la qualité du code et du modèle • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Expertises requises pour réaliser la prestation de Lead Machine Learning Ingenieur : • Au moins 5 ans d’expérience dans un environnement data/machine learning • Expériences dans le développement de modèles de machine learning • Expériences dans le déploiement en production de modèles de machine learning • Expériences sur la Google Cloud Platform : Composer/CloudSQL/CloudRun/IAM • Expériences avec des technologies de type Flask, FastAPI, SQLalchemy, Pgvector, Pandas, Hugging face • Expériences intégrant les langages Python et SQL • Expériences intégrant Terraform et Terragrunt • Solides expériences intégrant du Machine Learning, Deep Learning et des concepts liés à l’IA • Solides connaissances des modèles et systèmes de recommandation • Solides connaissances en data : structures de données, code, architecture • Expériences utilisant Gitlab et Gitlab CI/CD • Capacité à vulgariser et à communiquer sur des aspects purement techniques • Capacité à accompagner et à motiver une équipe technique • Expériences en méthodes Agile : de préférence Scrum ou Kanban
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Contourner les clauses Non Concurrence et Non Sollicitation
- LISTE DES SOCIETES DE PORTAGE
- Choix du régime fiscal IR ou IS pour une SCI – traitement des travaux
- Être une femme dans l’IT : transformer les défis en leviers de leadership
- Où sont les ... (non, pas les hommes) Passionné-e-s ?
1825 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois