Trouvez votre prochaine offre d’emploi ou de mission freelance Apache à Paris

Votre recherche renvoie 46 résultats.
Freelance

Mission freelance
INTEGRATEUR APPLICATIF TOMCAT / APACHE EXPERIMENTE

Publiée le
Apache

24 mois
250-500 €
Paris, France
Télétravail partiel
Pour un démarrage sous un mois environ, nous recherchons un(e) intégrateur technique d'application freelance très expérimenté pour intégrer les application web chez notre client, en lien avec la production et les équipes de développement. Très Important : le profil recherché n'est pas un ingénieur de production qui gère des procédures d'intégration applicative mais un consultant habitué à être intercalé entre les équipes de développements et la production et qui prépare les documents d'installation. de plus il doit être expert et parfaitement autonome avec beaucoup d'expérience sur Tomcat / Apache. Pas de Devops dans le périmètre. Astreintes possibles soir et week-end - répartition selon l'équipe Livrables sont : - Dossier d'installation - Composants applicatifs -Configuration applicative Description détaillée - Capable de configurer/installer tomcat manuellement sur windows ou linux - Capable d'analyser les logs tomcat en cas d'erreur - Capable de configurer/installer manuellement un serveur httpd - Capable d'analyser les logs httpd en cas d'erreur - Savoir évoluer dans un environnement linux - Récupération des livrables de développement sur les outils de Gestion de configuration (SVN, GIT) - Installation des packages sur les plateformes de tests - Qualification des packages sur les plateformes de tests selon les normes en vigueur - Vérification de la conformité des applications vis à vis des contraintes de production - Rédaction et validation des documents d'installation et d'exploitation - Rédaction et exécution des plans de tests techniques - Assistance et support technique à la mise en production - Communication avec l'équipe projet - Reporting
Freelance

Mission freelance
CONSULTANT APACHE SUPERSET

Publiée le
Apache

24 mois
250-500 €
Paris, France
Télétravail 100%
Dans le cadre d'un renfort d'équipe chez l'un de nos clients : Nous recherchons un consultant Data / BI / Dataviz avec une expertise sur "Apache Superset" Missions principales : Configuration de dashboards superset : Création de dashboards dynamiques et interactifs pour répondre aux besoins spécifiques de l'entreprise Intégration de données provenant de différentes sources Mise en forme des données pour une visualisation claire et efficace Développement de plugins : Création de plugins personnalisés pour étendre les fonctionnalités de Superset Intégration de nouvelles sources de données Automatisation des tâches de reporting Informations complémentaires : Type de contrat : Prestation de service Début de mission : Immédiat Lieu de travail : Castres / Full Remote
Freelance

Mission freelance
Consultant Kafka H/F

Publiée le
Apache Kafka
API
DevOps

3 ans
550-650 €
Paris, France
Télétravail partiel
Contexte Au sein de l’équipe Data Analytics, nous concevons, déployons et maintenons des architectures Big Data destinées à répondre aux besoins internes de l’entreprise. Dans le cadre du renforcement de notre équipe support, nous recherchons un Data Engineer spécialisé Kafka pour intervenir sur des plateformes critiques à fort volume de données. Missions principales Mettre en œuvre son expertise sur Kafka (conception, configuration, optimisation et troubleshooting) Assurer le support, l’automatisation et le maintien en conditions opérationnelles (MCO) des plateformes Kafka Participer aux développements de l’équipe Data Analytics, notamment sur le projet “Topic as a Service” Contribuer à l’amélioration continue des architectures Big Data et des processus d’exploitation Assurer le support de la plateforme Worlwide Participer à la documentation technique et au partage des bonnes pratiques Interagir avec des équipes internationales dans un environnement anglophone Environnement technique Apache Kafka OpenSearch Elastic Stack : Elasticsearch, Logstash, Kibana, Beats Ansible Git / Bitbucket Développement Python REST APIs
Freelance

Mission freelance
Expert Datastage PX / Spark (flux inter-applicatifs)

Publiée le
Apache
AWS Cloud
CI/CD

3 ans
400-550 €
Paris, France
Télétravail partiel
Bonjour, Nous recherchons pour notre client grand compte un Expert Datastage PX – flux inter-applicatifs – transition Python / Spark – environnement SAFe . Nous étudions – prioritairement – les candidatures qui nous sont adressées à freelance à insyco.fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité et mobilité Tarif journalier Merci d’indiquer la référence KTR/PXPY/4994 dans l’objet de votre message Le prestataire intervient sur un socle data existant reposant majoritairement sur Datastage PX , complété par des traitements en PySpark , comprenant un volume important de traitements, de jobs et de chaînes ordonnancées, avec de fortes dépendances entre applications. La prestation couvre notamment : L’exploitation quotidienne du socle Datastage PX La maintenance corrective et évolutive des traitements data L’optimisation de chaînes Datastage complexes L’administration de l’outil Datastage La gestion des incidents data La mise en place et l’adaptation de nouveaux périmètres de données La participation aux travaux de modélisation des données à destination des usages décisionnels La gestion et l’évolution de flux inter-applicatifs entre applications du SI Dans un contexte de transformation du SI data, la prestation inclut également : L’accompagnement d’un projet de décommissionnement d’un socle historique Le remplacement de sources existantes par des flux issus d’un environnement cloud (AWS) L’impact et l’adaptation de nombreuses chaînes Datastage existantes La réécriture progressive de traitements Datastage vers Python et Spark / PySpark Des travaux transverses en parallèle sur : des pipelines CI/CD appliqués aux flux data un outil de gouvernance de la donnée (Apache Atlas : métadonnées, rôles, sécurité) La prestation s’exerce dans un environnement Agile à l’échelle (SAFe) , avec un fonctionnement en train agile, une coordination transverse entre plusieurs équipes et une forte dépendance aux équipes de recette.
Freelance

Mission freelance
Consultant Technique API & Event (REST / Kafka)

Publiée le
API
Apigee
Run

18 mois
100-350 €
Paris, France
Télétravail partiel
CONTEXTE Expérience : 2 ans et plus Métiers Fonctions : Etudes & Développement, Consultant technique Spécialités technologiques : API Contexte Dans le cadre des projets 2026 et du RUN de la plateforme API, notre client renforce son Centre d’Excellence API & Events (6 personnes : production & gouvernance). Objectifs de la mission : - Contribuer au BUILD et au RUN des APIs et Events - Accompagner la structuration et la montée en maturité du centre d’expertise APIs Répartition : - 50 % BUILD / 50 % RUN MISSIONS - Rédaction/écriture d’API (Swagger / OpenAPI) - Accompagnement des équipes techniques et métiers sur le design d’APIs - Conception technique des Events et APIs asynchrones (AsyncAPI) - Contribution à la gouvernance de la plateforme Kafka - Participation à la modélisation des objets métiers du SI : JSON / NoSQL (documents, dénormalisation) & SQL relationnel selon les cas d’usage - Documentation des APIs - Support aux équipes consommatrices Un Architecte d’Entreprise accompagne la mission pour les aspects métiers si nécessaire. Expertise souhaitée Profil recherché : - 2 à 3 ans d’expérience minimum - Forte orientation API & Event-driven Compétences clés : - Excellente maîtrise de Swagger / OpenAPI - Excellente maîtrise de Kafka : Expert – impératif - Une connaissance de APIGEE est un +
Freelance
CDI

Offre d'emploi
Data Engineer AWS / Spark / Scala /Python

Publiée le
Apache Spark
PySpark
Scala

1 an
40k-56k €
400-600 €
Paris, France
Télétravail partiel
Bonjour ☺️ Nous recherchons un DATA ENGINEER orienté sur les technologies SPARK / SCALA / PYTHON/ AWS pour le compte de notre client ! Mission : Maintenir la plateforme en conditions opérationnelles : Garantir la disponibilité des données et des services de la plateforme, Assurer la communication avec les utilisateurs de la plateforme, Répondre aux demandes de données (données ad hoc, analyses d’anomalies), Développer les correctifs et évolutions nécessaires, Contribuer à la qualité des données et à l’industrialisation de leur exploitation. Concevoir et développer des services et pipelines de données fiables et performants : Mettre en place des flux de données (acquisition, transformation, export), Concevoir et modéliser les données, Développer et optimiser les pipelines de transformation, Réaliser les tests unitaires et d’intégration, Garantir la qualité des développements via les revues de code, Ordonnancer et gérer les dépendances entre traitements, Déployer sur l’ensemble des environnements, Enrichir et maintenir la documentation de la plateforme. Profil recherché : Minimum 5 ans d'expériences dans un contexte de grande volumétrie de données, Capacité à collaborer avec une pluralité d'interlocuteurs en même temps, Excellent esprit d’équipe, Capacité d'adaptation, Maitrise impérative de : Spark Scala, Python et SQL, Expérience significative sur AWS. Apprécié : Connaissance de Dataiku, Méthodologie Scrum/Safe, Airflow N'hésitez pas à envoyer votre CV !
Freelance
CDI

Offre d'emploi
Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans

Publiée le
Apache Spark
Hadoop
Python

3 ans
38k-43k €
300-400 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
Freelance
CDI

Offre d'emploi
Développeur Java

Publiée le
Apache Tomcat
Java

1 an
40k-45k €
400-670 €
Paris, France
Télétravail partiel
Descriptif du poste Au sein d'une grande banque internationale, la mission consiste à apporter un support dans le cadre d'un projet en charge du reporting réglementaire pour les activités de la Banque de Financement. Vous serez en charge de la compréhension, documentation et évolution des logiciels requises par les Métiers. Vous assurerez l'accompagnement des évolutions et/ou projets en charge, contribuerez aux décisions d'évolutions technico-fonctionnelles de la plateforme et entretiendrez la relation avec le reste de l'équipe, vos interlocuteurs Métiers et les équipes de Production.
Freelance

Mission freelance
Lead Dev Python - FastAPI

Publiée le
Apache Kafka
FastAPI
Python

12 mois
580-630 €
Paris, France
Télétravail partiel
Contexte du poste Nous recherchons un Tech Lead expérimenté pour encadrer une équipe de 4 personnes (2 développeurs et 2 QA) au sein d’un environnement agile et orienté produit. Le rôle exige un haut niveau d’expertise technique , en particulier autour de Python et FastAPI , avec une participation active au développement et aux revues de code. En étroite collaboration avec le Product Owner , le Tech Lead sera responsable de la définition des besoins fonctionnels et techniques, de la conception de l’architecture, ainsi que du découpage des tâches pour l’équipe. Il jouera également un rôle clé dans l’amélioration continue des pratiques d’ observabilité et de sécurité . Missions principales Encadrer et accompagner une équipe composée de 2 développeurs et 2 QA. Participer activement au développement backend en Python et intervenir directement sur le code. Assurer des revues de code rigoureuses pour maintenir un haut niveau de qualité. Travailler conjointement avec le Product Owner pour : définir les besoins, concevoir l’architecture technique, découper les tâches et prioriser les développements. Mettre en place et améliorer les solutions d’ observabilité (logs, métriques, traces, dashboards). Renforcer les bonnes pratiques de sécurité applicative et d’architecture. Garantir la qualité, la performance et la maintenabilité des composants techniques développés. Compétences techniques recherchées Maîtrise avancée de Python (expert). Excellente connaissance de FastAPI et de la conception d’API performantes. Expérience significative avec Kafka (publication/consommation, patterns d’event streaming). Connaissances solides en observabilité : monitoring (ex. Grafana), logs, métriques, traces distribuées. Sensibilité forte à la sécurité applicative et infrastructurelle . Pratique confirmée des revues de code et des bonnes pratiques d’ingénierie logicielle. Capacité avérée à encadrer une équipe technique , accompagner les développeurs et structurer les travaux. Profil recherché Tech Lead / avec au moins 5 à 7 ans d’expérience , dont au moins une expérience en tant que Tech Lead. Forte culture engineering, sens du détail et exigence sur la qualité du code. Bon relationnel, capacité à collaborer étroitement avec un Product Owner et les QA. Esprit d’analyse, structuré, orienté solution. Envie de faire monter l’équipe en compétence et de participer activement aux décisions technologiques.
Freelance

Mission freelance
DATA SCIENTIST EXPERT / DATA PRODUCT – DATAIKU (H/F) 75

Publiée le
Apache Spark
Dataiku
PySpark

6 mois
Paris, France
Télétravail partiel
Contexte: Dans un contexte de structuration et de montée en maturité des usages Data au sein d’une Direction Financière, la mission vise à renforcer les capacités analytiques autour de la prévision du chiffre d’affaires. L’objectif est de concevoir et d’industrialiser un produit Data stratégique permettant une projection automatisée et multidimensionnelle du chiffre d’affaires (produits, zones géographiques, canaux de vente, infrastructures). Le consultant interviendra au cœur d’une organisation Finance & Data, en tant que référent Data Finance, à l’interface entre les équipes Finance, Data et Produit. Missions: Concevoir, maintenir et faire évoluer un produit Data de projection du chiffre d’affaires Développer et industrialiser des modèles de prévision intégrant des mécanismes basés sur les volumes Permettre des ajustements manuels des projections par les équipes métiers Garantir la qualité, la fiabilité, la traçabilité et l’exploitabilité des données Développer et maintenir des pipelines de données sous Dataiku Implémenter des traitements SQL avancés et des flux de transformation complexes Exploiter Spark / PySpark pour gérer des volumétries importantes Automatiser, monitorer et documenter les chaînes de traitement Mettre en œuvre des contrôles de qualité et contribuer à la gouvernance des données financières Rendre les modèles explicables et actionnables pour les équipes Finance Mettre à disposition les données projetées dans le datalake Collaborer étroitement avec les équipes Finance, Data et Produit Participer aux rituels agiles et au suivi des livrables via des outils de gestion de projet
Freelance

Mission freelance
Tech Lead Kafka/Angular/fa

Publiée le
Angular
Apache Kafka

12 mois
Paris, France
Télétravail partiel
Tech Lead Kafka/Angular/fa Kafka (kafka streams) Java 21 Kubernetes API RESTclient Banque basé à Paris Gare de Lyon, un Tech Lead - Expérimenté avec un minimum de 4 ans d’expériences sur des projets similaires. Démarrage ASAP Localisation Paris 12e/ Télétravail Durée de la mission : 2 ans Projet : Maintenir une solution permettant de prioriser la liste des clients à contacter dans le cadre de la gestion de la relation client Concevoir et développer des solutions pour les équipes et les Conseillers. Assurer l’assistance fonctionnelle auprès des utilisateurs Principaux livrables : Assurer la conception, l’intégration et le développement des projets et solutions ainsi que les maintenances correctives et évolutives Préparer la mise en production avec les équipes expertes Gérer et maintenir la documentation fonctionnelle et technique Assurer l’assistance à l’utilisation des applications Assurer le diagnostic et la résolution des dysfonctionnements Compétences requises : Kafka (kafka streams) Java 21 Kubernetes API REST Autres Compétences : Conception technique Conception archi Volontaire Bon relationnel
Freelance

Mission freelance
Lead Dev Python - FastAPI

Publiée le
Apache Kafka
FastAPI
Python

12 mois
580-630 €
Paris, France
Télétravail partiel
Contexte du poste Nous recherchons un Tech Lead expérimenté pour encadrer une équipe de 4 personnes (2 développeurs et 2 QA) au sein d’un environnement agile et orienté produit. Le rôle exige un haut niveau d’expertise technique , en particulier autour de Python et FastAPI , avec une participation active au développement et aux revues de code. En étroite collaboration avec le Product Owner , le Tech Lead sera responsable de la définition des besoins fonctionnels et techniques, de la conception de l’architecture, ainsi que du découpage des tâches pour l’équipe. Il jouera également un rôle clé dans l’amélioration continue des pratiques d’ observabilité et de sécurité . Missions principales Encadrer et accompagner une équipe composée de 2 développeurs et 2 QA. Participer activement au développement backend en Python et intervenir directement sur le code. Assurer des revues de code rigoureuses pour maintenir un haut niveau de qualité. Travailler conjointement avec le Product Owner pour : définir les besoins, concevoir l’architecture technique, découper les tâches et prioriser les développements. Mettre en place et améliorer les solutions d’ observabilité (logs, métriques, traces, dashboards). Renforcer les bonnes pratiques de sécurité applicative et d’architecture. Garantir la qualité, la performance et la maintenabilité des composants techniques développés. Compétences techniques recherchées Maîtrise avancée de Python (expert). Excellente connaissance de FastAPI et de la conception d’API performantes. Expérience significative avec Kafka (publication/consommation, patterns d’event streaming). Connaissances solides en observabilité : monitoring (ex. Grafana), logs, métriques, traces distribuées. Sensibilité forte à la sécurité applicative et infrastructurelle . Pratique confirmée des revues de code et des bonnes pratiques d’ingénierie logicielle. Capacité avérée à encadrer une équipe technique , accompagner les développeurs et structurer les travaux. Profil recherché Tech Lead / avec au moins 5 à 7 ans d’expérience , dont au moins une expérience en tant que Tech Lead. Forte culture engineering, sens du détail et exigence sur la qualité du code. Bon relationnel, capacité à collaborer étroitement avec un Product Owner et les QA. Esprit d’analyse, structuré, orienté solution. Envie de faire monter l’équipe en compétence et de participer activement aux décisions technologiques.
Freelance

Mission freelance
Développeur Java/Kafka/Kubernetes

Publiée le
Apache Kafka
Java
Kubernetes

1 an
400-550 €
Paris, France
Télétravail partiel
Je suis à la recherche d'un Développeur Java/Kafka/Kubernetes. Maitrise des compétences techniques suivantes : - Kafka (kafka streams) - Java 21 - Kubernetes - API REST Autres Compétences - Conception technique - Conception archi - Volontaire - Bon relationnel - Assurer la conception, l’intégration et le développement des projets et solutions ainsi que les maintenances correctives et évolutives - Préparer la mise en production avec les équipes expertes - Gérer et maintenir la documentation fonctionnelle et technique - Assurer l’assistance à l’utilisation des applications - Assurer le diagnostic et la résolution des dysfonctionnements Au sein de cette Tribu, vous intégrerez la squad Proactivité Commerciale composée d’un PO/SM/Expert solution et 6 membres de la dev team (Business analysts/développeurs) et qui a pour missions de : - Maintenir une solution permettant de prioriser la liste des clients à contacter dans le cadre de la gestion de la relation client - Concevoir et développer des solutions pour les équipes Marketing et les Conseillers des Caisses Régionales - Assurer l’assistance fonctionnelle auprès des utilisateurs
Freelance

Mission freelance
Data Engineer Spark/Scala

Publiée le
Apache Spark
Scala

3 mois
330-400 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Paris o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
CDI
Freelance

Offre d'emploi
Architecte technique / Plateforme de flux

Publiée le
Apache Kafka
RabbitMQ

4 mois
40k-80k €
590-810 €
Paris, France
Télétravail partiel
Diagnostic & état des lieux Cartographie des solutions d’échanges existantes (MQ, API, Kafka, CFT/FTP (Artemis), …). Identification des cas d’usage, volumes, contraintes techniques et réglementaires. Analyse des pratiques actuelles (choix des flux, coûts, délais, limitations, volumes). Politique d’échanges de flux applicatifs Formalisation des principes directeurs (SLO/SLA, sécurité, observabilité, gouvernance). Élaboration d’une matrice de décision pour orienter le choix MQ / Kafka / API / CFT / … selon les cas d’usage (latence, volumétrie, synchronicité, criticité, confidentialité, B2B vs interne, coûts/TCO, réutilisation). Formalisation d’un document « Politique d’échanges de flux applicatifs » incluant les mécanismes de gouvernance nécessaires. Formalisation d’une roadmap/trajectoire pour convergence de l’existant vers la cible. Étude Artemis 2.0 Formalisation de l’existant Artemis : capacités, limites, coûts, TCO, qualité des rapports (passages OK/KO), dette, roadmap actuelle (“Artemis 2.0”) Finalisation du Benchmark des solutions alternatives. Une première analyse a été faite mais non finalisé. Il faudra capitaliser sur cette première analyse. Options à instruire (au minimum) avec les équipes du Client : Conserver l’outillage actuel “as is” ; Remplacer l’outillage actuel par une autre technologie (étude de marché, shortlist) ; Conserver l’outillage actuel et industrialiser/automatiser la création des flux (“Artemis as code”, API d’intégration, self‑service). Pour chaque option : bénéfices/risques, TCO 3–5 ans, impact et prérequis techniques, trajectoire de migration, critères de décision. Formalisation d’une roadmap/trajectoire pour convergence de l’existant vers la cible. Formalisation d’une note de décision à partager avec les CIO. Flux Back-to-Back Internes Formalisation des limitations actuelles avec Apigee pour des échanges internes PF. Formalisation des contraintes de sécurité, d’auditabilité et d’observabilité (traces, métriques, corrélation), et modalités d’onboarding. Formalisation de patterns alternatifs adaptés (légers, sécurisés, rapides à mettre en oeuvre). Estimation du cout d’implémentation de la solution et roadmap. Ces documents seront formalisés avec les inputs du Client.
Freelance
CDI

Offre d'emploi
Spécialiste Informatica IDMC sur Paris

Publiée le
Apache Kafka
Informatica
Master Data Management (MDM)

3 mois
Paris, France
Télétravail partiel
Je recherche pour un de mes clients un Spécialiste Informatica IDMC sur Paris Mission: Contexte Le client utilise la plateforme Informatica, à la fois en version OnPrem et SaaS (IDMC). La mission actuelle concerne uniquement la partie SaaS, où quatre référentiels sont déjà en production. Ces référentiels exploitent les composants suivants : CAI (Cloud Application Integration), CDI (Cloud Data Integration), MDM (Master Data Management), R360 (Reference 360), et B360 (Business 360). L’intégrateur aura pour mission de : Répondre aux demandes d’anomalies et d’évolutions pour chaque référentiel (TMA). Conseiller sur les possibilités et limites de la plateforme IDMC. Principales Tâches Travaux sur IDMC : Gestion et maintenance des composants de chaque référentiel sur B360, R360, CAI, CDI, et MDM. Intégration et traitement des données via Kafka. Diffusion des données des référentiels via Kafka. Taille de l'Équipe d'Intervention 1 personne en interne (ICDC) assurant le bon fonctionnement technique du socle. 1 personne en interne sur la partie pilotage projet 1 personne en externe sur la partie dev Expertise Requise Expérience minimale : 2 ans sur IDMC. Compétences techniques : Maîtrise des composants CAI, CDI, MDM, R360. Expérience avec Kafka pour l’intégration et la diffusion de données. Qualités Recherchées Capacité à travailler en autonomie et en collaboration avec l’équipe interne. Rigueur et réactivité dans la gestion des anomalies et des évolutions. Bonne communication pour conseiller et orienter sur les possibilités de la plateforme IDMC. Environnement de Travail Plateforme SaaS d’Informatica (IDMC)

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

46 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous