L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 990 résultats.
Mission freelance
Data Architect Orion
Nicholson SAS
Publiée le
Architecture
Data analysis
Data governance
9 mois
1 300 €
Paris, France
Vous êtes un architecte de la donnée passionné par la haute précision ? Rejoignez le programme stratégique de mon client pour façonner l'avenir de la Data au sein de cette marque Iconic. Votre Mission Une fois la Data Factory opérationnelle, vous deviendrez le garant de l'intelligence structurelle de nos données. Votre rôle sera central pour : Architecturer le futur : Concevoir et piloter la modélisation au sein d'une architecture Médaillon (Bronze, Silver, Gold). Innover en réseau : Déployer des modèles de données dans un environnement Data Mesh complexe. Standardiser l'excellence : Définir le modèle de données canonique , les spécifications techniques et l'intégrité des relations (clés, tables, jointures). Votre Profil Expertise : +7 ans d'expérience en Data Architecture Orion. Technique : Maîtrise avancée d' Oracle et de la modélisation complexe. Méthodologie : Vous évoluez avec aisance dans des environnements Agile et SaFe . Soft Skills : Esprit de synthèse, rigueur analytique et capacité à traduire des besoins métiers en structures de données performantes. Prêt à relever ce défi au sein d'une société de légende ?
Offre d'emploi
Ingénieur Poste de Travail Linux F/H
Experis France
Publiée le
35k-46k €
Nantes, Pays de la Loire
Ingénieur Poste de Travail Linux F/H - Nantes 🚀 Ingénieur Poste de Travail Linux (F/H) Lieu : Nantes Contrat : CDI Démarrage : Dès que possible 🎯 Contexte Dans le cadre de la croissance de nos activités, nous recherchons un Ingénieur Poste de Travail Linux passionné, capable d'intervenir chez nos clients grands comptes pour concevoir, déployer et maintenir des environnements Linux robustes, performants et industrialisés. Vous rejoindrez une équipe d'experts, reconnue pour sa maîtrise des environnements open source et son approche orientée automatisation & industrialisation. 🔧 Vos missions Ingénierie Poste de Travail Création, maintien et optimisation d'images Linux (Ubuntu, Debian, Red Hat, etc.). Intégration des drivers, configuration des environnements graphiques, packaging d'applications (deb/rpm). Standardisation et amélioration continue des configurations. Administration & Exploitation Gestion des mises à jour et de la supervision du parc. Analyse et résolution d'incidents systèmes et réseaux. Optimisation des performances et du fonctionnement global des postes de travail. Automatisation & Industrialisation Déploiement automatisé : PXE, kickstart, preseed, autoinstall. Développement de scripts (Bash/Python). Mise en œuvre et gestion d'outils d'orchestration : Ansible , Puppet, SaltStack… Sécurité Durcissement des postes Linux et respect des standards de sécurité. Gestion des permissions, SELinux/AppArmor. Mise en place de mécanismes de chiffrement (LUKS). Suivi de la conformité et du patch management. Cycle de vie & Support Intégration des postes dans le parc. Documentation, procédures et transfert de compétences. Support technique avancé pour les équipes N1/N2. Contribution aux Projets Participation à l'évolution des architectures poste de travail. Mise en place de pipelines CI/CD pour les configurations. Veille technologique sur l'écosystème Linux et automatisation.
Offre d'emploi
EXPERT SPARK DATA ENGINEER H/F
CELAD
Publiée le
42k-50k €
Rennes, Bretagne
Nous poursuivons notre développement et recherchons actuellement un(e) Expert Spark Data Engineer H/F pour intervenir chez un de nos clients. Contexte : La mission s’inscrit dans le cadre d’une solution de traitement de données à des fins de statistiques et de Business Intelligence. Vous interviendrez sur une architecture Data moderne reposant notamment sur Kafka Connect, Spark, Kubernetes et MongoDB, avec des enjeux de volumétrie importants : 350 bases de données 5 000 requêtes par seconde 1 To de données par an L’objectif est de réaliser un audit technique et de proposer des axes d’optimisation de la plateforme existante. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Réaliser un audit et un état des lieux technique de l’existant - Identifier les axes d’amélioration des traitements Spark (batch et streaming) - Optimiser les performances pour les flux temps réel - Définir les recommandations de dimensionnement de l’infrastructure - Proposer des améliorations sur MongoDB (modélisation et structuration des données) - Rédiger un document d’architecture cible et de préconisations
Offre d'emploi
Architecte Data GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data GCP pour définir et piloter l’évolution des plateformes de données cloud natives sur Google Cloud. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies GCP tels que BigQuery, Dataflow, Pub/Sub, Cloud Storage, Dataproc ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur GCP.
Mission freelance
Data Product Manager – Data & BI Platform
Comet
Publiée le
Microsoft Power BI
1 an
400-550 €
Île-de-France, France
Dans le cadre de la transformation Data de Saint-Gobain Mobility , nous recherchons un Data Product Manager senior pour piloter plusieurs initiatives stratégiques autour des plateformes Data & BI . Vous interviendrez au sein d’un environnement international, en collaboration étroite avec des architectes data, data engineers, équipes BI et métiers (Sales, Finance, Manufacturing, Supply Chain, Purchasing) . L’objectif : structurer et piloter un portefeuille de produits data alignés avec les besoins business et la stratégie Data du groupe. Vos missions Piloter l’étude et le cadrage de projets Data & BI Recueillir et formaliser les besoins métiers Animer des workshops avec les stakeholders Structurer l’architecture fonctionnelle et les flux data Concevoir les modèles de données et business layers Coordonner les équipes Data Engineers / Architectes / BI Évaluer la valeur business des solutions proposées Préparer les roadmaps, budgets et planning de delivery Formaliser les propositions de lancement projet Environnement & sujets clés Plusieurs initiatives structurantes sont en cours : Migration vers une Cloud Data Platform Migration MicroStrategy → Power BI Structuration des produits data dans une logique Data-as-a-Service Cas d’usage métiers : Sales Finance Manufacturing Supply Chain Purchasing
Offre d'emploi
Architecte Data Azure
KLETA
Publiée le
Azure
Databricks
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Azure pour définir et piloter l’évolution des plateformes de données cloud natives sur Microsoft Azure. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies Azure tels que Azure Data Lake, Azure Databricks, Azure Synapse, Azure Data Factory et Event Hubs, ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur Azure.
Mission freelance
250906/Data Engineer/Developpeur Powercenter Informatica MDM, DBT SQL Oracle
WorldWide People
Publiée le
Informatica PowerCenter
3 mois
360-380 €
Niort, Nouvelle-Aquitaine
Data Engineer/ Developpeur Powercenter Informatica MDM, DBT SQL Oracle NIORT Les prestations porteront sur les activités suivantes : Réception des contrats d’interface Ingestion des fichiers dans la data fabrique Analyse fonctionnelle de donnée Préparation fichier de paramétrage Paramétrage Développement Informatica Mise en place et alimentation du Data Warehouse Préparation de livraison (via OGC et Gitlab) Mise en recette Analyse d’incidents et corrections Environnements : SQL KSH Hive/oracle Informatica powercenter Developpeur Powercenter Informatica DBT SQL Oracle Expected skills Skills Skill level Informatica MDM Expert ORACLE Expert SQL Azure Expert
Offre d'emploi
Ingénieur Poste de Travail Modern Management
NAVIGACOM
Publiée le
Administration Windows
55k-75k €
Puteaux, Île-de-France
En tant qu'Ingénieur Poste de Travail, vous intégrez l'équipe Digital Workspace en tant qu'expert des solutions de gestion des terminaux (UEM/MDM). Vous accompagnez nos clients dans l'optimisation et la sécurisation de leur parc informatique (Windows, macOS, Mobile) en misant sur l'automatisation et les meilleures pratiques du marché. Missions principales : Conception et Architecture : Définir et documenter (DAT, DEX) les architectures de gestion du poste de travail. Ingénierie de déploiement : Paramétrer et administrer les solutions de gestion pour assurer un déploiement fluide et sécurisé des applications et configurations. Maintien en Condition Opérationnelle : Résoudre les incidents de niveau 3 et optimiser la performance des socles technologiques. Veille et Innovation : Réaliser des Proof of Concept (PoC) sur de nouvelles fonctionnalités ou outils de gestion. Transmission : Diffuser les bonnes pratiques au sein des équipes clients et internes.
Mission freelance
DATA ENGINEER GCP
ESENCA
Publiée le
Apache Airflow
BigQuery
DBT
1 an
400-500 €
Lille, Hauts-de-France
⚠️ Compétences obligatoires (indispensables pour ce poste) Les candidats doivent impérativement maîtriser les compétences suivantes : BigQuery (Google Cloud Platform) – niveau confirmé Orchestration de pipelines de données (ex : Airflow) – niveau confirmé Transformation de données (ex : dbt) – niveau confirmé Architecture Data Mesh / Data Product – niveau confirmé SQL et modélisation de données Environnement Google Cloud Platform (GCP) Gestion de pipelines de données et pratiques DevOps (CI/CD) Anglais professionnel Intitulé du poste Data Engineer Objectif global du poste Accompagner les équipes produits digitaux dans le déploiement d’un Framework Data Management , en assurant la diffusion des standards, bonnes pratiques et méthodes de Data Engineering au sein des plateformes digitales. Le poste s’inscrit dans une équipe Data transverse avec pour mission de faciliter l’exploitation et la valorisation des données par les équipes métiers et digitales . Principaux livrables Déploiement opérationnel du framework Data Management dans les produits digitaux Élaboration de guides pratiques à destination des équipes produits Mise en place et documentation de standards, patterns et bonnes pratiques Data Engineering Missions principales Le Data Engineer aura notamment pour responsabilités : Collecter, structurer et transformer les données afin de les rendre exploitables pour les utilisateurs métiers et digitaux Concevoir et organiser un modèle physique de données répondant aux enjeux d’architecture Data Mesh Mettre en œuvre des méthodes permettant d’améliorer : la fiabilité la qualité la performance des données l’optimisation des coûts ( FinOps ) Garantir la mise en production des flux de données dans le respect de la gouvernance et des règles de conformité Assurer le respect des réglementations liées à la protection des données Maintenir et faire évoluer la stack technique Data Mettre en place un cadre de bonnes pratiques pour améliorer la qualité des développements de flux de données et leur suivi en production Participer aux rituels agiles de l’équipe et contribuer à la veille technologique Environnement technique Cloud : Google Cloud Platform (GCP) Data Warehouse : BigQuery Orchestration : Airflow Transformation : dbt Streaming : Kafka Stockage : GCS Langages : SQL, Shell Bases de données : SQL / NoSQL DevOps : CI/CD, Git, data pipelines Méthodologie Travail en méthodologie Agile Gestion de version avec Git Participation active aux rituels d’équipe Langues Français : courant Anglais : professionnel (impératif)
Mission freelance
[FBO] Ingénieur IT senior Linux - Grenoble - 1444
ISUPPLIER
Publiée le
8 mois
300-380 €
Grenoble, Auvergne-Rhône-Alpes
Contexte de la mission Au sein d'un bureau de R&D à Meylan, pour renforcer temporairement l’équipe, nous recherchons un consultant expérimenté ayant une maitrise des environnements serveurs Linux et l’expérience dans l’administration d’outils complexes dans des architectures mixtes. Une expérience HPC est un plus. Objectifs et livrables Votre mission consiste à : Participer à l’exploitation et à l’évolution de l’infrastructure IT hybride, regroupant à la fois les services bureautiques classiques et les plateformes HPC dédiées à l’IA. Cela inclut des mises à jour au niveau système ou applicatif. Assurer la disponibilité, la performance et la sécurité des systèmes (serveurs, clusters GPU, stockage, virtualisation, réseaux). Contribuer à la supervision avancée de l’infrastructure : monitoring, alerting, tuning, prévention des incidents et résolution rapide des anomalies. Participer à l’automatisation des opérations (déploiements, patching, gestion de configuration) afin de réduire les interventions manuelles et d’améliorer la fiabilité. Collaborer étroitement avec les autres membres de l’équipe (5 personnes au total) pour répartir les responsabilités, partager les expertises et assurer une continuité de service. Fournir un support technique de niveau avancé aux utilisateurs internes : analyses approfondies, conseils d’architecture.
Offre d'emploi
Ingénieur Supervision / Observabilité Junior (H/F)
INFOTEL CONSEIL
Publiée le
CI/CD
Monitoring
Run
6 mois
30k-37k €
260-360 €
Le Mans, Pays de la Loire
Dans le cadre du renforcement de ses équipes, notre client grand compte basé au Mans recherche un profil junior en supervision / observabilité pour intervenir au sein de la structure Observabilité & Suivi du Run . Ce poste est idéal pour un profil ayant 1 à 2 ans d’expérience réussi dans ce domaine , souhaitant monter en compétences sur des environnements critiques et structurés. 👉 Les outils utilisés (Dynatrace, Zabbix, ELK, Splunk…) ne sont pas bloquants : l’important reste votre expérience en supervision / run et votre motivation . Objectif de la mission Contribuer à la supervision, l’analyse et l’amélioration continue du système d’information, en lien avec les équipes de pilotage et de production. Missions principales Surveiller les systèmes et analyser les alertes de supervision Participer à la gestion des incidents (diagnostic, résolution, escalade) Contribuer à l’ analyse des performances et à l’optimisation des systèmes Participer à la corrélation des données (logs, métriques, traces) Aider à la mise en place et au maintien de l’ observabilité des SI Rédiger et maintenir la documentation d’exploitation Participer à l’ amélioration continue des outils et processus de supervision Collaborer avec les équipes techniques pour assurer un run fluide Livrables attendus Documentation d’exploitation à jour Consignes et procédures pour les équipes de pilotage Analyses d’incidents et propositions d’amélioration Suivi des performances et recommandations Localisation : Le Mans Démarrage : à partir de Mai (date à définir selon le besoin client) Type de contrat : CDI (via notre filiale ALTANA) ou Freelance / Prestation
Offre d'emploi
Ingénieur infra cyber sécurité sur Issy Les Moulineaux
EterniTech
Publiée le
AWS Cloud
Azure
Infrastructure
1 an
Issy-les-Moulineaux, Île-de-France
Je recherche pour un de mes clients un Ingénieur infra cyber sécurité sur Issy Les Moulineaux Contexte, description du projet : Au sein de la DSI de la Branche Grand Public et Numérique, la Direction de la Maîtrise des Risques SI est la garante de l’identification et du déploiement des bonnes pratiques en matière de sécurité SI (incluant l’exploitation des outils de cybersécurité, la gestion des identités et des accès, la détection des incidents de sécurité, …), ainsi que de la mise en place des outils de contrôle. Vous serez rattaché à l’équipe « Prévention », équipe à part entière du Centre de sécurité Opérationnelle (CSO), pour contribuer à la mise en œuvre, l’évolution, et l’exploitation quotidienne des outils de cybersécurité. Notamment : • Déployer et opérer les AV/EDR et Scanner de vulnérabilités • Assurer le MCO de ces outils de sécurité • Produire les reporting liés à la gestion des EDR/AV et à la gestion des vulnérabilités • Assurer une veille technologique en matière de méthodes et outils de sécurité • Contribuer au traitement des incidents de sécurité • Assurer l’interfaçage avec le support éditeur pour le traitement des incidents et des évolutions • Définir et implémenter les politiques de scan de vulnérabilités • Comprendre les enjeux et contextualisation des données • Déployer le service de gestion des vulnérabilités et l’implémenter techniquement • Gérer les assets • Gérer les scans (Actif, passif, WAS, AWS, AZURE, Authentifié ou non) • Gérer les rapports d’analyse (Dashboard, Reports) • Structurer l’ordre de correction • Apporter un support aux clients à la prévention et à la remédiation • Exercer une veille technologique pour anticiper les risques et les menaces • Analyser les menaces et les risques dans le contexte • Apporter un appui méthodologique dans les standards actuels de sécurité et qualité • Faire de l’amélioration continue des processus • Assurer la qualité des livraisons de service • Reporter auprès du responsable du service et des clients du service • Rédiger les alertes et incidents de sécurité (tickets ; Jira, ServiceNow) et de rapports d’analyse. Environnement et conditions techniques : • McAfee/Trellix, Eset, Kaspersky, Sophos, Cylance, Sentinel One, Carbon Black, Tehtris… • Qualys, Dynatrace App-Sec, Tenable, CyberWatch, Bitsight, Dependcy Track… • Fortinet, Palo-Alto, Stormshield, Mikrotik… • Nessus, Cyberwatch, Armis, Rapid7… • Linux (Redhat, CentOS, Debian, Windows) • VMware VCD, KVM, OVirt, NSX-T, AWS (déploiement, services, tarification) • Scripting/Développement (bash, perl, python, java) • Supervision (Nagios, ServiceNav, Zabbix, Cloud-watch) • Outils de ticketing (ServiceNow, Jira) Objectifs et Enjeux de la prestation : Apporter un support aux clients internes et projets sur les sujets sécurité des infrastructures ( On-promise et Cloud) : • Assurer un support et une expertise technique sur le choix des contrôles de sécurité adaptés aux besoins BGPN et conformes aux politiques et directives sécurité du client. • Anticiper les besoins des clients et les évolutions de la plateforme. • Apporter l’expertise technique afin de réaliser le déploiement/Accompagner de l’EDR (Tehtris) et l’AV (Trellix) sur l’ensemble du parc serveurs BGPN • Apporter l’expertise technique afin de réaliser qualifier les alertes de vulnérabilités et apporter l’assistance à l’analyse pour l’ensemble du parc serveurs BGPN Compétences Techniques : • Bonne connaissance des EDR/AV (expérience sur un projet de déploiement d’une technologie leader souhaitable) • Bonne connaissance des outils de gestion des vulnérabilités • Bonne connaissance des infrastructures SI globalement • Bonne connaissance des projets applicatifs • Bonne connaissance des pratiques SAFE Livrables : 1. Rédaction des Procédures, modes opératoires, processus, fiches reflexes ... 2. Réalisation des différents reporting (KPI, Dashboard...) Démarrage: 04/05/2026 Durée 01 an
Mission freelance
Ingénieur Réseau/Sécurité
CS Group Solutions
Publiée le
Aruba
Cisco
Fortinet
12 mois
Paris, France
Nous recherchons un Ingénieur Réseau/Sécurité Mission en mode projet avec un peu de run lié aux projet travaillés. Contexte Projet Équipe globale d’une trentaine de personnes Localisation Paris Profil Sénior avec les compétences : - SD WAN Fortinet – Projet de migration en cours – idéalement une certification Fortinet ou SDWAN Fortinet - Firewalling Fortinet VDOM / ADOM - Fortimanager / Forti analyser - ARUBA Switching / Wifi - Cisco Switching En plus, mais non indispensable : - PKI /CMS - Cisco ACI - Radware Altéon - F5 - Netskope Mission principale : Migration SD WAN , projet de refresh site complet ou architecture Datacenter Visibilité mission : minimum 1 an
Mission freelance
Data Engineer
Codezys
Publiée le
Intelligence artificielle
Python
Snowflake
12 mois
Bordeaux, Nouvelle-Aquitaine
Dans le cadre de notre démarche d'innovation et de renforcement de notre expertise en gestion de données, nous lançons un appel d'offres pour le recrutement d'un(e) Data Engineer intégré(e) à notre Direction des Systèmes d'Information (DSI). Le(a) candidat(e) retenu(e) aura pour mission principale d'apporter son expertise technique sur des sujets récents liés à l'intelligence artificielle (IA) appliquée à la data, en s'appuyant sur une compréhension approfondie des enjeux métiers et techniques. Responsabilités principales : Alimentation de données : Effectuer l'ingestion, la transformation et la mise à jour des flux de données provenant de différentes sources afin d’assurer leur disponibilité et leur cohérence. Collaboration avec un Data Analyst : Travailler en binôme sur des projets liés à l’IA et à la data, en apportant votre expertise technique pour la réalisation d’analyses et la mise en place de solutions innovantes. Développement d’outils IA : Participer à la conception et au déploiement d’agents IA capables de réaliser du requêtage SQL en langage naturel, facilitant ainsi l’accès et l’interprétation des données par les utilisateurs métier. Outils et monitoring : Mettre à disposition des outils d’aide au développement, au monitoring et à la maintenance des plateformes data, afin d’assurer leur fiabilité et leur performance. Veille technologique : Effectuer une veille continue sur les architectures data, en termes de nouvelles tendances, d’outils émergents et de bonnes pratiques, pour faire évoluer nos solutions et répondre efficacement aux besoins métiers. La personne recrutée devra faire preuve de rigueur, d’autonomie et d’un esprit d’innovation, tout en étant à l’écoute des besoins des utilisateurs finaux. La maîtrise des technologies liées à l’IA, aux plateformes data et à la requête en langage naturel sera un réel atout pour la réussite de ce projet. Nous invitons donc les candidats ou organismes intéressés à soumettre leur proposition, en précisant leur approche technique, leur expérience et leur capacité à répondre à ces enjeux stratégiques.
Offre d'emploi
PO Data / Business Analyst confirmé
KOMEET TECHNOLOGIES
Publiée le
Microsoft Power BI
45k-60k €
Paris, France
Intervention dans un projet BI avec une forte composante métier. Le consultant participera aux ateliers de recueil du besoin , réalisera des maquettes de Dashboards sous Power BI avant développement dans MicroStrategy (qui sera assuré par la DSI) , afin de s’assurer de l’alignement avec les attentes métiers. La mission inclut également la rédaction des Spécification Fonctionnel, des activités de data analyse / modélisation et la participation à la recette métier .
Mission freelance
Ingénieur logiciel Talend Informatica F/H
SOFTEAM
Publiée le
Informatica
Informatica PowerCenter
Talend
12 mois
400-550 €
Île-de-France, France
Service à intégrer au sein de l'équipe étendue chargée d'un produit d'intégration de données, basée à Paris et à Lisbonne et pilotée par un chef de produit et des product owners. Le service devra interagir avec l'équipe produit, les équipes de projet, ainsi que les équipes de sécurité et d'architecture au sein des opérations du groupe. Présence au bureau 2 à 3 jours par semaine, dans les locaux d'Enjoy (Paris 17e). Technologies : Talend, Informatica PowerCenter & IDMC, Oracle, Unix. Missions : Contribuer au développement, à la livraison et à la maintenance d'applications Talend ou Informatica ; Concevoir, tester et documenter la nouvelle solution ; Veiller au respect des meilleures pratiques de développement et des directives de sécurité. Livrables : Atelier, documentation de conception et de design ; Développement d'applications, tests unitaires et livraison ; Accompagnement des phases de tests d'acceptation utilisateur (UAT). Compétences requises : Maîtrise de l'anglais indispensable ; Maîtrise d'Informatica PowerCenter et de Talend indispensable ; Maîtrise des intégrations d'API ; Maîtrise des scripts Unix ; Maîtrise d'Informatica IDMC appréciée ; Maîtrise d'OpenPaaS ou de plateformes similaires appréciée
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2990 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois