Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 205 résultats.
Freelance

Mission freelance
Data Engineer Senior F/H

SMARTPOINT
Publiée le
Apache Spark
CI/CD
Data Lake

12 mois
400-530 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe spécialisée dans la gestion et l’exploitation des données au sein d’une grande organisation numérique. L’équipe intervient au cœur de la plateforme Data et collabore étroitement avec les différentes directions techniques pour transformer la data en levier stratégique et opérationnel. L’équipe actuelle est composée d’un Product Owner, d’un Data Steward et de deux autres Data Engineers. La mission s’inscrit dans un contexte de traitement de volumes de données importants et de projets transverses autour de la connaissance utilisateur et de la mise à disposition d’outils de pilotage internes. Missions de l’équipe Collecter et centraliser des sources de données hétérogènes. Assurer la conformité, la sécurité et la qualité des données. Participer aux initiatives de gouvernance des données. Missions du Data Engineer En interaction avec les membres de l’équipe, le Data Engineer aura pour responsabilités de : Participer aux phases de conception, planification et réalisation des projets data. Construire et maintenir des pipelines de données robustes et scalables. Accompagner l’équipe dans l’exploitation et le requêtage des données. Organiser et structurer le stockage des données pour en faciliter l’accès et l’usage. Mettre en place et maintenir des infrastructures scalables capables de gérer l’augmentation rapide du volume de données. Développer et maintenir les workflows de CI/CD pour les pipelines data. Partager les bonnes pratiques et contribuer à la montée en compétences des autres data engineers. Garantir l’évolutivité, la sécurité et la stabilité des environnements de données. Participer activement aux instances techniques de l’équipe. Contribuer à la mise à jour et à la qualité de la documentation technique. Effectuer une veille technologique proactive sur les outils et méthodes data. Stack technique Langages & traitements : Python, SQL, Spark Orchestration : Airflow Stockage : Cloud Storage, Delta Lake Cloud & services associés : Google Cloud Platform (BigQuery, Dataproc, Pub/Sub) Infrastructure & IaC : Terraform, Terragrunt CI/CD & versioning : GitLab, GitLab CI/CD Méthodologie : Agile (Scrum ou Kanban) Profil recherché Minimum 7 ans d’expérience en Data Engineering. Expertise solide en structuration et traitement de données, code et architecture data. Expérience significative dans la conception et la maintenance de pipelines data . Expérience dans un environnement Google Cloud Platform et utilisation de BigQuery et Dataplex Universal Catalog. Maîtrise des langages Python et SQL et du framework Spark . Expérience avec Delta Lake , Terraform, Terragrunt. Maîtrise des outils GitLab et GitLab CI/CD. Capacité à vulgariser et communiquer sur des sujets techniques complexes. Autonomie, rigueur et capacité à travailler en équipe dans un contexte Agile. Qualités personnelles Esprit d’équipe et collaboration. Proactivité et sens de l’initiative. Curiosité technologique et veille active. Capacité à documenter et partager les bonnes pratiques.
Freelance

Mission freelance
POT9006- Un Data Analyst Power BI confirmé sur Chécy.

Almatek
Publiée le
Microsoft Excel
PowerBI
SAS

6 mois
330-380 €
Chécy, Centre-Val de Loire
Almatek recherche pour l'un de ses clients, un Data Analyst Power BI confirmé sur Chécy. Descriptif: Contexte de la mission Dans le cadre de la mise en place et de l’industrialisation de tableaux de bord décisionnels Power BI, le client recherche un Data Analyst Power BI confirmé pour accompagner les directions métiers dans la construction et le pilotage de leurs indicateurs stratégiques. La mission s’inscrit dans un contexte assurance , avec des enjeux forts de compréhension métier, de structuration de la donnée et d’aide à la décision au niveau Direction Générale. Objectifs de la mission: Concevoir, développer et maintenir des tableaux de bord Power BI à destination de la Direction Générale Accompagner les métiers dans la transformation de leurs usages historiques (Excel, SAS) vers une logique Power BI plus industrialisée Structurer la démarche décisionnelle et garantir la cohérence des indicateurs Périmètre fonctionnel: Les tableaux de bord concernent notamment : Direction Générale Direction des Offres Direction Commerciale Direction Marketing Activités principales: Capacité à s’asseoir avec les métiers, comprendre leurs besoins et leurs usages actuels Accompagnement au changement : expliquer pourquoi une logique Excel / SAS ne peut pas être transposée telle quelle dans Power BI Définition de la logique de données et des indicateurs Rédaction de notes de cadrage, validation avec les métiers Conception et développement des rapports Power BI Mise en production et assurance du RUN (maintien, évolutions, fiabilité des dashboards) Profil recherché: Data Analyst Power BI confirmé Minimum 5/7 ans d’expérience sur des projets décisionnels Très bonne connaissance des environnements assurance, c'est obligatoire. Forte capacité de communication et de pédagogie auprès des métiers (forte compétences métier assurance obligatoire) Autonomie, structuration et sens du résultat Organisation
CDI
Freelance

Offre d'emploi
Data Engineer AWS expérimenté

UCASE CONSULTING
Publiée le
Apache Spark
AWS Cloud
Python

1 an
50k-60k €
500-600 €
Île-de-France, France
Dans le cadre du renforcement de l'équipe Data de notre client, nous recherchons un(e) Data Engineer AWS expérimenté(e) (5 à 7 ans d’expérience minimum), capable d’intervenir sur des plateformes data à forte volumétrie et à forts enjeux de performance, de sécurité et de coûts. Missions 1️⃣ Maintien en condition opérationnelle de la plateforme Contrôler et garantir la disponibilité des données et des services Assurer le suivi des traitements et la gestion des incidents Répondre aux demandes de données ad hoc et analyser les anomalies Développer des correctifs et des évolutions si nécessaire Contribuer à la qualité des données et à l’industrialisation de la plateforme Communiquer avec les utilisateurs et accompagner les équipes 2️⃣ Design & construction de services et pipelines data Concevoir et mettre en place des flux de données (acquisition, transformation, exposition) Développer des pipelines robustes et performants (batch et temps réel) Réaliser des modélisations de données adaptées aux usages métiers Mettre en place les traitements sur différents formats (CSV, XML, JSON, Parquet) Ordonnancer les traitements et gérer les dépendances (Airflow) Développer et maintenir des flux temps réel via Kafka (MSK) Réaliser les tests unitaires et d’intégration Participer aux revues de code et veiller au respect des standards Gérer les déploiements sur l’ensemble des environnements Enrichir et maintenir la documentation technique Environnement technique AWS : S3, EMR, EKS, EC2, Lambda, Athena Spark (Scala), Python, SQL Kafka Airflow Dataiku GitLab & GitLab CI Terraform
Freelance
CDI

Offre d'emploi
Data Engineer

Codezys
Publiée le
Azure DevOps Services
Python

24 mois
47 260-53 560 €
450-500 €
Saint-Denis, Île-de-France
Poste : Data Engineer Nombre de postes : 1 Expérience : > 7 ans TJM d’achat max : 500€ Localisation : Île-de-France Deadline réponse : 10/02/2026 Démarrage : 09/03/2026, mission longue durée Type de contrat : Salarié ou Freelance 1) Descriptif de la mission La mission se déroule au sein d’une équipe dédiée au développement d’outils, de méthodes et d’industrialisation pour un acteur majeur du secteur ferroviaire. L’objectif est de soutenir un périmètre spécifique concernant un outil d’analyse de la régularité des circulations, basé sur un ensemble de flux issus du système d’information de l’opérateur. Ce périmètre comprend l’accès à des données consolidées et prêtes à l’analyse, permettant aux équipes métier d’utiliser des données fiables. La mission concerne notamment : Assurer la continuité d’alimentation des flux de données pour l’outil et l’équipe technique, Adapter, développer, corriger et déployer des processus ETL lors de migrations de données, Intégrer de nouveaux flux de données en garantissant l’absence de régression, Maintenir ces flux en production et garantir leur disponibilité, Définir des formats d’échange pour alimenter l’outil, Mettre en place des indicateurs de supervision, Accompagner l’équipe dans l’exploitation des nouveaux flux. 2) Livrables attendus Le cahier des charges précise une liste de livrables avec des délais indicatifs : Recette de l’API : Document de validation, comparaison entre anciennes et nouvelles données issues du nouveau format. Déploiement : Paquets SSIS / SQL déployés, paramétrage automatique, documentation d’intégration. Processus de rattrapage simple : Documentation, industrialisation, déploiement, artefacts dans un environnement de gestion de versions. Documentation des nouvelles données : Note explicative sur la nature et l’utilisation des nouvelles données. Format d’échange : Documentation complète du schéma d’échange de données. Déploiement des flux : Projets SSIS / SQL, documentation du chargement, déploiement en environnement de production. Processus de rattrapage complexe : Développement, déploiement et documentation complète. KPI BI : Mise en place d’un tableau de bord avec suivi de l’intégration, des erreurs et de la disponibilité des flux en production.
CDI

Offre d'emploi
Consultant SAP FI/CO (H/F)

IA Soft
Publiée le
SAP FICO

1 an
40k-45k €
400-550 €
Île-de-France, France
Le Consultant SAP FI/CO est chargé de l’analyse des besoins métiers, du paramétrage, du déploiement et du support des modules SAP Finance (FI) et Controlling (CO) . Il accompagne les équipes financières et de gestion dans l’optimisation des processus comptables, financiers et de contrôle de gestion via SAP. Il intervient sur les projets d’implémentation, d’évolution, de migration ou de support, en garantissant l’adéquation entre les besoins métiers, les solutions proposées et les standards de l’entreprise. . Responsabilités principalesAnalyse et cadrage des besoins Recueillir et analyser les besoins des équipes finance, comptabilité et contrôle de gestion. Traduire les besoins métiers en spécifications fonctionnelles. Participer aux ateliers de cadrage et à la définition des processus cibles. Conseiller les métiers sur les bonnes pratiques SAP FI/CO. Paramétrage et déploiement Réaliser le paramétrage des modules SAP FI et CO selon les besoins du projet. Participer à l’implémentation de nouvelles fonctionnalités et aux évolutions du système. Rédiger les spécifications fonctionnelles pour les développements spécifiques. Collaborer avec les équipes techniques et les développeurs ABAP pour la mise en œuvre des solutions. Assurer les tests fonctionnels, les recettes et le support au démarrage. Support et maintenance Assurer le support fonctionnel de niveau 2/3 sur les modules FI/CO. Analyser et corriger les incidents ou anomalies fonctionnelles. Participer à la maintenance évolutive et corrective du système SAP. Garantir la qualité et la fiabilité des flux financiers et de gestion. Coordination et accompagnement Former et accompagner les utilisateurs sur les processus SAP FI/CO. Rédiger la documentation fonctionnelle et les procédures utilisateurs. Participer aux projets transverses impliquant d’autres modules SAP (MM, SD, PP, BW, etc.). Assurer un rôle d’interface entre les équipes métiers, IT et les partenaires externes. Profil recherchéFormation Bac+4 / Bac+5 en finance, comptabilité, contrôle de gestion, systèmes d’information ou équivalent. Une spécialisation SAP ou ERP est un plus. Expérience Expérience de 3 à 7 ans minimum sur SAP FI/CO. Expérience significative sur des projets d’implémentation, de migration ou de support SAP. Une expérience en environnement international ou multisociétés est appréciée. Compétences requisesCompétences techniques Bonne maîtrise des modules SAP FI (comptabilité générale, fournisseurs, clients, immobilisations, banque) et SAP CO (centres de coûts, ordres internes, analyse de rentabilité, contrôle budgétaire). Bonne connaissance des processus financiers et de contrôle de gestion. Capacité à réaliser le paramétrage fonctionnel dans SAP. Connaissance des intégrations avec les autres modules SAP. Compréhension des interfaces, reprises de données et tests d’intégration. La connaissance de S/4HANA est un atout. Des notions en ABAP, SAP Query, Fiori ou reporting sont appréciées. Compétences comportementales Esprit d’analyse et sens du détail. Rigueur et méthode. Bon relationnel et capacité à interagir avec des interlocuteurs métiers et techniques. Capacité à résoudre des problématiques complexes. Autonomie, pédagogie et sens du service. Bonne communication écrite et orale. Objectifs du poste Garantir le bon fonctionnement et l’évolution des modules SAP FI/CO. Optimiser les processus financiers et de contrôle de gestion. Sécuriser les données et les flux comptables. Assurer la satisfaction des utilisateurs et la qualité du support apporté.
Freelance
CDI

Offre d'emploi
BA ALM Trésorerie - 7 ans et plus

Digistrat consulting
Publiée le
Agile Scrum
ALM
Business Analysis

3 ans
40k-70k €
400-630 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre du plan de transformation ALMT, la mission consiste à travailler sur les applications du domaine qui sont utilisés par les trésoriers. Nous cherchons un profil BA Senior avec des compétences en ALM, Risk de Liquidité ou Risk de Crédit/Contrepartie (expérience obligatoire avec au moins un des périmètres demandé) 💡 La mission Consiste à : Business analyse Spécifications fonctionnelles Suivi des développements Formalisation des cahiers de tests Formation utilisateurs Etudes et analyses du backlog d'équipe Expertise en mode Agile
CDI
Freelance

Offre d'emploi
Expert GenAI / Data Engineer GCP (Agentic AI)

xITed
Publiée le
Google Cloud Platform (GCP)

1 an
Île-de-France, France
Contexte de la mission Dans le cadre du développement de ses initiatives autour de l’Intelligence Artificielle Générative et de l’automatisation intelligente, un grand groupe international souhaite renforcer ses équipes Data & AI avec un Expert GenAI / Data Engineer . Le consultant interviendra sur la conception et l’industrialisation de solutions basées sur des modèles de langage (LLM) intégrés à une plateforme data cloud moderne reposant sur Google Cloud Platform (GCP) . Objectifs de la mission Concevoir et industrialiser des solutions d’IA générative à l’échelle Développer des architectures d’agents intelligents (Agentic AI) Intégrer les usages IA aux plateformes data existantes Garantir la robustesse, la performance et la scalabilité des solutions Participer aux choix d’architecture et aux bonnes pratiques techniques Missions principales IA Générative / Agentic AI Conception et développement d’agents basés sur des modèles LLM Mise en œuvre d’architectures RAG (Retrieval Augmented Generation) Orchestration de workflows IA multi-étapes Intégration d’APIs et outils externes Optimisation des performances et de la qualité des réponses IA Data Engineering Conception et optimisation de pipelines data (ETL / ELT) Ingestion et transformation de données volumineuses Exploitation de données structurées et non structurées Mise en place de standards de qualité et de gouvernance des données Architecture Cloud Design d’architectures AI end-to-end sur GCP Déploiement de services cloud-native Participation aux décisions techniques et à l’industrialisation Mise en production et amélioration continue des solutions Environnement technique Cloud & Data Google Cloud Platform (GCP) BigQuery Dataflow Cloud Storage Pub/Sub Cloud Run / Cloud Functions AI / GenAI Vertex AI LLM APIs LangChain / LangGraph / LlamaIndex (ou équivalent) Architectures RAG Vector databases Développement Python (expert) APIs REST Docker CI/CD Git Profil recherché Minimum 7 ans d’expérience en Data Engineering / Software Engineering Expérience confirmée sur environnement GCP Expérience concrète sur projets GenAI / LLM en production Bonne maîtrise des architectures cloud distribuées Capacité à intervenir sur des sujets d’architecture et d’industrialisation Anglais professionnel Compétences clés GenAI / Agentic AI Data Engineering avancé Architecture GCP Industrialisation AI Python avancé
CDI

Offre d'emploi
Développeur Full Stack (H/F)

IA Soft
Publiée le
.NET CORE
Angular
Java

1 an
40k-45k €
400-550 €
Île-de-France, France
1. Intitulé du poste Développeur Full Stack (H/F) 2. Mission principale Le Développeur Full Stack conçoit, développe, teste et maintient des applications web ou logicielles en intervenant à la fois sur la partie front-end et back-end . Il participe à l’ensemble du cycle de vie des projets techniques, de l’analyse du besoin jusqu’à la mise en production, en veillant à la performance, à la sécurité et à la qualité du code. Il travaille en étroite collaboration avec les équipes produit, design, QA et infrastructure afin de livrer des solutions robustes, évolutives et adaptées aux besoins métiers. 3. Responsabilités principalesDéveloppement applicatif Concevoir et développer des fonctionnalités front-end et back-end. Participer à l’architecture technique des applications. Développer et maintenir des API, services et interfaces utilisateurs. Assurer l’intégration entre les différentes couches de l’application. Veiller à la qualité, à la lisibilité et à la maintenabilité du code. Maintenance et amélioration continue Corriger les anomalies et résoudre les incidents techniques. Optimiser les performances des applications. Participer aux évolutions techniques et fonctionnelles des produits. Assurer la maintenance corrective et évolutive des solutions existantes. Contribuer à la réduction de la dette technique. Qualité et sécurité Réaliser les tests unitaires, tests d’intégration et revues de code. Appliquer les bonnes pratiques de développement sécurisé. Veiller à la conformité du code avec les standards de l’entreprise. Participer à la documentation technique des applications. Garantir la fiabilité, la stabilité et la sécurité des développements. Travail en équipe Collaborer avec les Product Owners, UX/UI designers, DevOps et QA. Participer aux cérémonies Agile : sprint planning, daily meeting, rétrospectives, démos. Estimer la charge de développement et contribuer à la planification. Partager les connaissances techniques au sein de l’équipe. 4. Profil recherchéFormation Bac+3 à Bac+5 en informatique, développement logiciel ou équivalent. Une spécialisation en développement web, génie logiciel ou systèmes d’information est un plus. Expérience Expérience de 5 à 7 ans minimum en développement full stack. Expérience dans la réalisation d’applications web ou plateformes métiers. Une expérience en environnement Agile / Scrum est appréciée. 5. Compétences requisesCompétences techniques Bonne maîtrise des technologies front-end : HTML, CSS, JavaScript / TypeScript. Bonne maîtrise d’au moins un framework front-end : React, Angular, Vue.js ou équivalent. Bonne maîtrise des technologies back-end : Node.js, Java, .NET, PHP, Python ou équivalent. Expérience avec les API REST / GraphQL. Bonne connaissance des bases de données relationnelles et/ou NoSQL : PostgreSQL, MySQL, MongoDB, etc. Maîtrise des outils de versioning, notamment Git. Connaissance des environnements CI/CD, Docker, cloud ou DevOps appréciée. Sensibilité aux enjeux de cybersécurité, performance et scalabilité. Compétences comportementales Esprit d’analyse et de résolution de problèmes. Rigueur, autonomie et sens de l’organisation. Capacité à travailler en équipe et à communiquer efficacement. Curiosité technique et veille technologique active. Force de proposition et orientation qualité. 6. Objectifs du poste Développer des applications fiables, performantes et évolutives. Répondre aux besoins fonctionnels dans le respect des délais. Garantir un haut niveau de qualité technique et de sécurité. Participer à l’amélioration continue des outils, méthodes et architectures.
Freelance

Mission freelance
Ingénieur réseaux - Junior

Sapiens Group
Publiée le
Administration réseaux
Agent IA
Fibre optique

1 an
560-650 €
Paris, France
Contexte Recherche d’un administrateur réseaux . Un profil junior passionné, disposant de 3 à 7 ans d’expérience maximum . Le poste est basé à Montparnasse avec une durée de contrat de 1 an renouvelable . Le démarrage est prévu ASAP . Missions Câblage réseau : connaissances en câbles Ethernet (Cat5e, Cat6, Cat6a, Cat7) et fibre optique. Installation d’équipements : serveurs, switchs, routeurs, racks, panneaux de brassage (patch panels). Configuration basique : compréhension de la connectivité réseau pour assurer la bonne liaison des équipements. Tests et diagnostics : utilisation de testeurs de câbles, vérification de la continuité, des débits et de la qualité du signal. Respect des normes et standards : connaissance des standards TIA/EIA, ISO/IEC pour les réseaux et le câblage structuré. Lecture de plans et schémas : interprétation des plans de câblage et de la topologie réseau. Gestion de l’espace : installation correcte des équipements dans les racks, optimisation de la circulation d’air et de l’accès. Documentation : mise à jour des schémas, inventaire des câbles et des équipements. Gestion des accès : respect des règles de sécurité physique des data centers. Précision et rigueur : éviter les erreurs de câblage pouvant impacter l’infrastructure entière. Intérêt pour l’IA : MCP et LLM, utilisation de Claude Agentic pour la génération de code dans un contexte réseau. L’objectif est de s’intéresser à ces nouvelles technologies et de développer ses compétences pendant la mission.
Offre premium
Freelance

Mission freelance
ARCHITECTE D’ENTREPRISE

WERIN GROUP DIGITAL
Publiée le
ArchiMate
CI/CD
Cloud

6 mois
600-760 €
Île-de-France, France
Contexte – Objectif : Le département Architecture d'Entreprise de notre client (basé en région Parisienne et dans le secteur de l’Assurance) est composé de 8 architectes d'entreprise hautement qualifiés. Il fonctionne comme une équipe élargie incluant 3 architectes de solutions transversaux issus de l'équipe technique. Notre client souhaite renforcer l'équipe avec 1 architecte d'entreprise justifiant de 7 à 10 ans d'expérience dans ce domaine (idéalement aussi en tant qu’Architecte Solutions) dont 2 à 3 ans en tant que développeur informatique. La connaissance de SAP FI serait une compétence très appréciée. Rôle : L'architecte d'entreprise est responsable du périmètre architectural du sous-domaine qui lui est attribué. Il collabore étroitement au sein de l'équipe Architecture d'Entreprise afin de garantir une vision d'entreprise cohérente et consolidée, ainsi qu'avec les équipes de développement – ​​métiers et techniques (organisées en tribus) – et les fonctions transversales telles que la gouvernance, la sécurité et les centres d'expertise. Principales missions : Pour le sous-domaine attribué : Affiner et maintenir la vision architecturale du sous-domaine attribué. Réaliser des évaluations et des études d'architecture. Animer les sessions de l'Autorité de Conception et contribuer au comité d'architecture. Maintenir à jour le référentiel d'architecture d'entreprise. Accompagner l'équipe de gouvernance dans la réalisation de ses activités.
Freelance
CDI

Offre d'emploi
QA Automaticien - 7 ans XP

Espritek
Publiée le
Xray

3 ans
40k-45k €
400-500 €
Neuilly-sur-Seine, Île-de-France
Dans le cadre du développement de ses applications de gestion du patrimoine, de gestion de l’offre publicitaire et de gestion des services aux villes, JCDecaux recherche une prestation de testeur Agile / automaticien. Il/elle aura pour mission : • de définir, en collaboration avec le Product Owner et les développeurs les tests des US (BDD, Gherkin) • de maintenir et d’enrichir les tests automatisés (Selenium, JUnit, RestAssured, Cucumber) • de contribuer à l’amélioration du framework de test • de s’assurer de la bonne exécution régulière des tests automatisés • de définir et mettre à jour les plans de tests (TNRs) pour chaque sprint • d’exécuter les tests identifiés et d’analyser les résultats d’exécution (Jira-Xray & Jenkins) • de maintenir le référentiel de tests (Jira-Xray) sur la base des livrables projets (UserStories, Functionnal Rules, Acceptance Tests, …) • d’enregistrer les défauts détectés dans notre outil de bug tracking (Jira Agile) • de participer à la création et à la maintenance des données de test • d’être force de proposition dans le cadre du processus d’amélioration continue. • enrichir et maintenir la documentation sur les tests dans Confluence (Process de tests, documentation technique etc.) Il / elle évolue dans un environnement agile (Scrum de 3 semaines et intégration continue) et participe aux différentes cérémonies mises en place. Il / elle montre une réelle appétence pour le contrôle qualité et les aspects techniques de ce domaine (certification ISTQB appréciée). Le consultant(e) devra faire preuve d’intérêt pour le fonctionnel des applications testées et appréhender des règles de gestion complexes. Environnement technique : • PostgreSQL 14 • Java 11 – 21, Spring boot, Angular 13 - 19 • API Rest, Kafka • Jenkins Maven, Sonar • Selenium 4, Cucumber, RestAssured • Jira, Confluence, XRay Compétences techniques requises • Atlassian XRay ou équivalent – Maîtrise • Selenium WebDriver (JUnit ou Test NG) – Maîtrise • Java / Maven / Git – Maîtrise • API Rest – Maîtrise • Langage SQL – Connaissances / Autonomie • Au moins un gestionnaire d’anomalies (Jira, etc…) – Connaissances / Autonomie Compétences appréciées : • Jenkins – Connaissances / Autonomie • Selenium Grid / Jmeter • Kafka & Elasticsearch Qualités humaines recherchées : Le / la consultant(e) devra être rigoureux, organisé, synthétique et efficace. Il/elle devra également faire preuve d’excellentes qualités relationnelles et d’aptitudes à communiquer. Localisation du poste : • Neuilly (Metro Pont de Neuilly). 2 jours sur site OBLIGATOIRE et 3 jours de télétravail Date de démarrage souhaitée : • ASAP
Freelance

Mission freelance
POT8928 - Deux Data Steward (Confirmé et Sénior) sur Tours

Almatek
Publiée le
SharePoint

6 mois
220-400 €
Tours, Centre-Val de Loire
Almatek recherche pour l'un de ses clients Deux Data Steward (Confirmé et Sénior) sur Tours. *** Profil confirmé (4 à 5 ans) *** Analyse des politiques de catalogage -Alignement entre politiques -Rapports de cohérence et suivi des écarts Appui aux data owners -Identification des datasets manquants -Définition des métadonnées -Animation de très nombreux ateliers -Mise à jour de l’outil de catalogage (manuel + injections de masse) Qualité du catalogage -Définition d’indicateurs qualité -Détection et résorption des écarts -Développement de code (outillage qualité) Gestion de l’outil de catalogage -Améliorations, habilitations, recettes -Outils complémentaires Conduite du changement & formation -Documentation, supports -Sessions de formation et d’acculturation *** Profil Sénior(> à 7 ans) *** Analyse des politiques et écarts qualité -Notes d’analyse -Roadmap annuelle des chantiers qualité -Mise en place d’un processus d’analyse de risques hebdomadaire Définition des règles qualité -Ateliers avec data owners -Reformulation des règles dans les documents métiers -Capitalisation dans les outils Implémentation des contrôles qualité -Définition et suivi des contrôles -Tableaux de bord qualité -Synthèses adaptées aux publics cibles Outillage -Amélioration des outils existants -Développement d’outils complémentaires (dont analyse de risque) Conduite du changement -Formation, supports, acculturation Environnement technique : Sharepoint 2016 - Windows 11 - Office 365 - PowerBI online – Chrome Localisation : TOURS + 3jrs TT/ semaine
Freelance

Mission freelance
Proxy PO build - Snowflake + Power BI

FF
Publiée le
Azure Data Factory
Microsoft Power BI
Snowflake

1 an
Paris, France
Bonjour à tous, Mission longue 1 an ou + à Paris. Télétravail : 2 jours par semaine Date de démarrage : courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour accélérer la phase de BUILD de notre plateforme data. Cette mission vise à répondre à un besoin critique : face à un volume important de demandes utilisateurs et une incapacité à tout traiter faute de bande passante, ce PPO sera en charge de structurer et accélérer la livraison de nouvelles fonctionnalités, KPI et spécifications fonctionnelles. Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de faire le lien entre les utilisateurs métiers et les équipes de développement, en fournissant des spécifications fonctionnelles claires et exploitables. Objectif principal Accélérer le BUILD produit data : spécifications, nouveaux KPI, structuration des demandes utilisateurs. Le PPO BUILD devra gérer un fort volume d'échanges avec les utilisateurs, recueillir et formaliser les besoins métiers, définir et cadrer de nouveaux KPI, et travailler en étroite collaboration avec le Product Owner Data et les équipes de développement. Responsabilités clésGestion du backlog et cérémonies Agile • Participer aux cérémonies Agile et supporter le PO dans la gestion d'équipe • Gérer et opérer le backlog BUILD • Créer et maintenir les tickets Jira pour les équipes de développement avec des informations complètes : spécifications d'intégration de données, sources de données requises pour la construction des KPI, règles de transformation et critères d'acceptation Recueil et formalisation des besoins • Recueillir les besoins métiers auprès des utilisateurs clés • Mener des interviews utilisateurs à haut volume pour comprendre et cadrer les demandes • Formaliser les besoins sous forme de spécifications fonctionnelles claires et exploitables Analyse et construction des KPI • Analyser les sources de données nécessaires pour construire les KPI • Définir et cadrer de nouveaux KPI dans la plateforme data • Effectuer l'analyse technique et optimiser la logique de calcul des KPI • Concevoir des modèles de données dans Snowflake et Power BI Tests et validation • Effectuer des tests UAT (User Acceptance Testing) avec les parties prenantes dans Snowflake et Power BI • Tester et valider les fonctionnalités et améliorations livrées Suivi et optimisation • Surveiller et examiner l'orchestration et la planification des sources • Construire et affiner les modèles de données Power BI • Contribuer à la documentation fonctionnelle Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (KPI, dashboards) • SQL : connaissance fonctionnelle pour effectuer l'analyse de données, validation et compréhension des données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Spécifications fonctionnelles : capacité à rédiger des spécifications fonctionnelles claires et exploitables • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Excellentes capacités de communication avec les utilisateurs et les équipes de développement • Aisance dans les échanges avec des utilisateurs exigeants et capacité de facilitation et négociation avec les parties prenantes • Esprit de synthèse et structuration pour transformer des besoins complexes en spécifications claires • Autonomie forte et curiosité – capacité à apprendre rapidement le contexte métier • Décisif et axé sur les résultats • Esprit collaboratif Langues • Anglais : courant / bilingue obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à confirmé) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Assurer une approche centrée utilisateur dans toutes les décisions produit • Construire et maintenir la roadmap produit en collaboration avec le Product Owner Data • Définir des spécifications fonctionnelles claires et complètes • Planifier, piloter et prioriser les développements en utilisant la méthodologie Agile • Tester et valider les fonctionnalités et améliorations livrées • Fournir formation, support et communication aux utilisateurs Compétences clés demandées • AGILE • Snowflake (fonctionnel) • Microsoft Power BI : Niveau Expert Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
Freelance

Mission freelance
247160/Développeur Java Senior - Lyon Au moins 7 ans d’XP en développement JAVA (Web, API) - Lyon

WorldWide People
Publiée le
Java

6 mois
350-380 €
Lyon, Auvergne-Rhône-Alpes
Développeur Java Senior - Lyon Au moins 7 ans d’XP en développement JAVA (Web, API) o Connaissances : GIT, Gitlab, Jenkins, DEV/OPS (CI/CD) o Langage : JAVA, SQL o Frameworks : Spring Boot A u moins 7 ans d’XP en développement JAVA (Web, API) o Connaissances : GIT, Gitlab, Jenkins, DEV/OPS (CI/CD) o Langage : JAVA, SQL o Frameworks : Spring Boot Connaissances complémentaires qui serait un plus : • Architecture API et Microservices • Kubernetes • Kafka, • Elastic/search • Jquery/AJax • Fonctionnement API Manager, • A déjà participé à des projets de bout en bout (cadrage, fabrication, recette, benchs, livraison en production) • Bonne expertise technique et capable de piloter techniquement les développements, livraison et phase de recette • Bonne capacité de rédaction documentaire (Spécifications techniques, livrables de livraison ….) o services REST d'API o microservices o batch
Freelance

Mission freelance
Administrateur ElasticSearch Paris - administrer une base de données NOSQL - exp de 7 à 10 ans

WorldWide People
Publiée le
Elasticsearch

3 mois
Paris, France
Administrateur ElasticSearch Paris - administrer une base de données NOSQL - expérience de 7 à 10 ans Quelqu'un qui serait capable d'administrer une base de données NOSQL pour pouvoir gérer correctement les performances d'une base de données ElasticSearch et qui serait capable de réviser/gérer des index. Administrateur ElasticSearch et Gestion des PerformanceTunique ELK Description du Poste Nous recherchons un Expert ELK confirmé, spécialisé dans l'administration avancée d'une plateforme ElasticSearch et la gestion de ses performances (sujet critique dû à l’absorption quotidienne de données d' APM (Application Performance Monitoring) . Ce poste exige une expertise approfondie dans la configuration, la gestion des performances au quotidien , et l'optimisation des bases de données NoSQL. Vous serez un pilier essentiel de notre équipe dédiée au système de management, à l'observabilité et à l'automatisation. Responsabilités Administration de Plateforme ElasticSearch : Assurer la gestion quotidienne d'une plateforme ElasticSearch, incluant la configuration, le monitoring et l'optimisation des performances. Gestion de Performance via APM : Intégrer et analyser les données d'APM pour identifier les goulots d'étranglement et optimiser les performances des applications. Configuration et Tuning Avancé : Mettre en place des configurations optimales pour garantir la scalabilité, la haute disponibilité et des performances maximales et automatiser les tâches répétitives. Gestion des Performances : Identifier et résoudre les problèmes de performance, optimiser les requêtes et ajuster les paramètres pour une utilisation efficace des ressources. Déploiement et Maintenance de la Stack ELK : Installer, configurer et maintenir Elasticsearch, Logstash et Kibana, avec un focus sur la robustesse et la fiabilité. Optimisation des Bases de Données NoSQL : Analyser et optimiser les performances des bases de données NoSQL pour garantir une efficacité maximale. Configuration des ILM (Index Lifecycle Management) : Mettre en place et gérer les politiques ILM pour optimiser la gestion des index et leur cycle de vie. Gestion des Shards : Configurer et optimiser la répartition des shards pour garantir des performances élevées et une utilisation efficace des ressources. Interrogation des API via Logstash : Configurer et utiliser Logstash pour interroger des API externes et intégrer les données collectées dans Elasticsearch. Documentation et Support : Rédiger et maintenir la documentation des configurations et des processus, et assurer le support technique et la résolution des problèmes liés à la stack ELK. Compétences Requises Expérience : Minimum 5 ans d'expérience en administration de plateforme ElasticSearch , avec une expertise démontrée dans la gestion quotidienne des performances et des configurations avancées. Connaissances Techniques : Maîtrise des concepts d’ingestion, de transformation et de visualisation des données, avec des compétences avancées en tuning de performances. Gestion de Performance via APM : Expérience dans l'intégration et l'analyse des données d'APM pour optimiser les performances des applications. Interrogation des API : Expérience dans la configuration de Logstash pour interroger des API externes et intégrer les données dans Elasticsearch. ILM et Shards : Expertise dans la configuration des politiques ILM et la gestion des shards pour optimiser les performances et la scalabilité. Machine Learning : Expérience dans l'utilisation des fonctionnalités de Machine Learning d'Elasticsearch. Monitoring et Observabilité : Expérience approfondie dans la surveillance et la gestion de l'infrastructure IT avec un accent sur l'observabilité avancée. Interopérabilité : Expérience dans l'intégration d'ELK avec ServiceNow ou des systèmes similaires. Communication et Résolution de Problèmes : Excellentes compétences en communication écrite et orale, et capacité à diagnostiquer et résoudre des problèmes complexes de manière efficace et autonome. Atouts Connaissance d'autres outils de monitoring : Prometheus, Grafana, etc. Certification Elastic : Un atout majeur. Expérience avec des bases de données NoSQL et SQL : Expertise en optimisation et tuning. Connaissance des pratiques DevOps et des outils CI/CD : Expérience souhaitée. Expérience avec ServiceNow et son écosystème : Un plus. Scripting et Automatisation : Compétence en scripting (Python, Bash, etc.) et expérience avec des outils d'automatisation (Ansible, Puppet, etc.)
Freelance

Mission freelance
Un Chargé de mission IT – Migration PKI à Lyon 7

Almatek
Publiée le
Public Key Infrastructure (PKI)

3 mois
240-300 €
Lyon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients, Un Chargé de mission IT – Migration PKI à Lyon 7 Description CONTEXTE & MISSION Dans le cadre du projet de modernisation de l'infrastructure PKI, l'équipe PKIe du groupe Sécurité recherche un Chargé de mission pour piloter l'accostage des applications au nouveau service Sécurité. L'objectif principal est d'accompagner 100 % des applications dans la migration vers la nouvelle PKI d'ici fin décembre 2026. Le profil sera l'interface opérationnelle entre les équipes applicatives, les architectes, les chargés de migration et le partenaire PKI. ACTIVITÉS PRINCIPALES Coordonner l'outillage des applications tout au long de l'année pour sécuriser le cycle de vie et l'exploitation des certificats Animer des ateliers avec les équipes applicatives, les architectes et les services partenaires Assurer le support niveau 1 applicatif et infrastructure sur le périmètre PKI Rédiger et maintenir la documentation fonctionnelle (guides, procédures, FAQ) Gérer les sollicitations quotidiennes et assurer le suivi via les outils de ticketing Suivre les indicateurs d'avancement et contribuer au reporting Travailler en étroite collaboration avec les chargés de migration et les responsables de conduite du changement COMPETENCES REQUISES • Maitrise Support Niveau 1 applicatif / infrastructure, • Maitrise des outils collaboratifs (TEAMS / Sharepoint / JIRA / OUTLOOK / POWER BI ect….) • Sens aigüe de la relation utilisateur, grand aisance communication orale et écrite, • Très bonne capacité d’animation de réunion / formation • Bonne connaissance des circuits d’exploitation / du RUN / Gestion des sollicitations quotidienne • Connaissance des outils ticketing servicenow, • Rédaction de documentation fonctionnelle • Appétence cybersécurité
205 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous