L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 735 résultats.
Mission freelance
Consultant SAP PP QM Data Migration
SAP-HIRE
Publiée le
SAP
SAP PP
SAP QM
9 mois
Paris, France
Nous recherchons un profil SAP PP QM sur la Data Migration pour renforcer un projet de migration vers SAP S/4. La mission consiste à Identifier et analyser des données à migrer (matériaux, nomenclatures, gammes, données qualité), mapper et définitir les règles de transformation, préparer et charger les données (LSMW / Migration Cockpit), contrôles qualité des données et gestion des incidents, participer aux phases de tests (SIT/UAT) et aux répétitions de migration (cutover). Vous aurez une expérience confirmée en migration de données SAP, une bonne compréhension des données PP & QM, serait autonome, rigoureux et orienté qualité des données. La mission doit se réaliser 3 jours sur site en IDF.
Offre d'emploi
Ingénieur système cloud H/F
GROUPE ARTEMYS
Publiée le
Active Directory
autonomie
Azure
45k-65k €
75010, Paris, Île-de-France
Qui sommes-nous ? Artemys, acteur de la transformation numérique est une entreprise à taille humaine, avec plus de 30 ans d’expérience composée de plusieurs entités, chacune spécialisée dans leur domaine (Système, data, réseaux/sécu…) Ce qui nous distingue vraiment ? Ce n’est pas de dire que nous valorisons nos collaborateurs, c’est de le montrer chaque jour. Chez Artemys, l’humain est au cœur de tout ce que nous faisons. Nos valeurs, concrètes et vécues au quotidien : Convivialité : travailler dans une bonne ambiance, ça change tout Proximité : chaque membre de l’équipe a sa place et sa voix Écoute : vos idées comptent autant que votre travail Artemys Paris , située dans le 10ᵉ arrondissement, est une entité spécialisée en infrastructures systèmes. Forte de 36 ans d’expertise , elle accompagne les entreprises, principalement implantées en Ile-de-France , dans leur transformation digitale. C’est au sein de cette entité, la plus ancienne du groupe, que l’aventure a débuté. Au fil des années, Artemys a su fidéliser une clientèle exigeante de Grands Comptes, certains clients accompagnant l’entreprise depuis sa création, dans des secteurs variés. Reconnue pour son exigence technique et ses valeurs humaines, elle est aujourd’hui un acteur clé des Infrastructures, Cloud et Modern Workplace. Votre mission (si vous l’acceptez) : Administration & modernisation des systèmes : Maintien en condition opérationnelle (MCO) des environnements serveurs et cloud Gestion des incidents complexes et demandes utilisateurs N3 Cloud & Hybridation : Déploiement, gestion et optimisation des infrastructures Azure et AWS Mise en place et pilotage de solutions hybrides (cloud/public/privé) Contribution aux projets de migration vers le cloud Automatisation & Industrialisation : Développement de scripts et automatisations via PowerShell / Terraform Participation à la mise en place de pipelines CI/CD pour fluidifier le delivery Sécurité & Résilience : Gestion de la sécurité des environnements (Antivirus, EDR/XDR, bastion, sauvegardes cloud) Application des bonnes pratiques de durcissement et de conformité (ISO, NIS2, RGPD, SecOps) Projets & Conseil : Participation aux projets d’évolution : modernisation des SI, migrations cloud.. Le terrain de jeu ? Windows (majoritaire), Linux (marginal) Virtualisation : VMware, Hyper-V Cloud : Azure, AWS & environnements hybrides Hyperconvergence : Nutanix, VSAN, Simplivity Messagerie : M365 ITSM & Management : SCCM, Intune, Landesk Sécurité : Antivirus, EDR, XDR Le profil que nous recherchons : Vous avez 3 ans d’expérience minimum dans un environnement challengeant Vous avez une expérience auprès de clients grands comptes Vous avez un bon niveau d’anglais à l’oral et à l’écrit Vous faites preuve de rigueur, d’agilité et de proactivité, et disposez d’une excellente aisance rédactionnelle Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : 45 000 - 55 000 € (Selon votre expertise) Sans négliger les avantages indispensables : Carte SWILE (Tickets Restaurant, transports et CE). 12 RTT, Mutuelle Groupe, Participation Groupe. Accompagnement RH, suivi managérial de proximité ( Méthode Agile) Événements entreprise : Afterworks, Tech Meetups, soirées d’intégration, events sportifs, soirées gaming… Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidater !
Mission freelance
Project Manager (GRC IA CLOUD DATA)
Groupe Aptenia
Publiée le
Cloud
Data management
Gouvernance, gestion des risques et conformité (GRC)
6 mois
400-600 €
Paris, France
🎯𝐓𝐨𝐧 𝐭𝐞𝐫𝐫𝐚𝐢𝐧 𝐝𝐞 𝐣𝐞𝐮 : - Piloter les analyses de risques IT & cybersécurité sur des projets innovants (IA, Cloud, Data) - Accompagner les projets en apportant expertise sécurité et conseil (data protection, conformité, architecture) - Identifier, qualifier et suivre les risques, vulnérabilités et plans de remédiation - Assurer la conformité des projets IT (y compris third parties) et la résilience opérationnelle - Préparer et animer les comités de validation (risk, sécurité) 🛠️ Gouvernance & GRC - Intégrer les analyses dans l’outil GRC Groupe - Contribuer au programme cybersécurité (référentiel NIST CSF) - Produire le reporting (KPI, tableaux de bord, comités) - Maintenir et améliorer les politiques et procédures 🤝 Environnement - Collaboration avec équipes IT, métiers, sécurité, data, juridique et compliance - Contexte international et multi-sites
Mission freelance
Data Engineer
Root-MENU
Publiée le
Python
SQL
6 mois
500-800 €
Paris, France
En tant que Data Engineer, vous interviendrez sur la conception, la mise en place et l’évolution des pipelines de données, avec un enjeu fort autour de la fiabilité et de la performance des traitements. Au sein de l’équipe data, vos missions seront les suivantes : ⋆ Concevoir et maintenir des pipelines de données (ETL/ELT) ⋆ Assurer la collecte, le nettoyage et la transformation des données ⋆ Optimiser les performances des flux et des bases de données ⋆ Garantir la qualité et la disponibilité des données ⋆ Collaborer avec les équipes data (analystes, data scientists) pour répondre aux besoins métiers ⋆ Participer aux choix techniques liés à l’architecture data
Mission freelance
Expert Cloud Security & CSPM (Azure / AWS / IAM / DevOps)
Comet
Publiée le
AWS Cloud
Azure
Azure DevOps
140 jours
460-670 €
Lyon, Auvergne-Rhône-Alpes
Bonjour à tous, notamment aux Experts Cloud Security & CSPM ☁️💛 (Azure / AWS / IAM / DevOps) 🔎 Je cherche un Cloud Security CSPM Expert senior pour rejoindre un programme stratégique de transformation IT et remédiation sécurité. Dans le cadre de ce carve-out IT complexe, l’objectif est de mettre sous contrôle la sécurité des environnements cloud publics multi-cloud, tout en pilotant les remédiations issues d’un audit cybersécurité et en renforçant la posture de sécurité globale. 💻 Ce que tu vas faire : Exploiter et optimiser les outils CSPM (Qualys TotalCloud, Wiz) Analyser les vulnérabilités et mauvaises configurations Cloud Piloter les remédiations avec les équipes Cloud, Infra et DevOps Structurer et améliorer les pratiques de sécurité Cloud (CSPM) Contribuer à l’industrialisation des pratiques de sécurité et à la gouvernance Cloud Prioriser et coordonner les actions critiques en environnement multi-cloud Reporter régulièrement sur les risques, remédiations et niveaux de conformité 🎯 Stack & environnement 💛 : Azure / AWS / OCI (bonus) / Qualys TotalCloud / Wiz / IAM / Sécurité Cloud / Terraform / DevOps / environnements legacy multi-cloud ⚠️ Profil recherché : Senior (expertise 10+ ans) Très hands-on (sécurité opérationnelle, remédiation, coordination) Expérience CSPM et remédiation post-audit cybersécurité Habitué aux environnements complexes multi-cloud et legacy Capacité à travailler en transverse et à gérer la pression des audits 📍 Mission : Lyon OU Paris – 7 mois potentiellement renouvelable 💰 Budget : Jusqu'aux alentours de 650 📅 Démarrage : ASAP Merci de me transmettre vos CVs en MP !
Mission freelance
POT9062 - Un Data Engineer Sénior / Big Data / Spark / Cloudera sur Paris
Almatek
Publiée le
Git
6 mois
Paris, France
Almatek recherche pour l'un de ses clients Un Data Engineer Sénior / Big Data / Spark / Cloudera sur Paris. Contexte de la mission Le projet HALO est un programme stratégique de digitalisation des parcours bancaires (vente en ligne, souscription, IA). La Direction Data met en place une plateforme Big Data pour alimenter les cas d’usage métiers à forte valeur ajoutée. Il s’agit d’un nouveau projet (build) avec des enjeux de performance, d’intégration IA et de montée en charge. L’environnement technique est centré sur un écosystème Hadoop/Cloudera on-premise. Missions principales • Participer à la définition de l’architecture Data en lien avec les architectes et la squad • Affiner les User Stories avec le PO/BA, concevoir et développer les pipelines de collecte et de stockage des données • Orchestrer les flux batch et temps réel (Spark batch + Spark Streaming) • Mettre en œuvre les tests unitaires et automatisés • Déployer le produit dans les différents environnements (CI/CD) • Garantir le bon fonctionnement en production : monitoring, gestion des incidents, optimisation • Accompagner l’équipe dans une logique d’amélioration continue de la qualité du code Environnement technique Catégorie Technologies Framework Big Data Hadoop Cloudera (requis) Traitement Spark, PySpark, Spark Streaming (requis) — Scala (apprécié) Messaging Kafka, Kafka Connect, Kafka Streams (apprécié) Langages SQL (requis), Scala, Java, Shell, Python Bases de données SQL : Hive, Phoenix — NoSQL : HBase, MongoDB DevOps / CI-CD Git, Jenkins, Artifactory, XL Deploy, XL Release Monitoring ELK Stack (Elasticsearch, Logstash, Kibana), Grafana Gouvernance RGPD, Data Lineage, Catalogage
Offre d'emploi
Expert sécurité M365 (H/F)
STORM GROUP
Publiée le
Azure
Microsoft Purview
Powershell
3 ans
55k-60k €
500 €
Toulouse, Occitanie
Le département Protection des Données, rattaché à la Direction Sécurité, recherche pour son service Sécurité Des Données un Expert en Protection des Données de formation ingénieur. Vous accompagnerez nos équipes dans la mission cruciale de protection des données sensibles. Au sein d'une équipe pluridisciplinaire, votre mission sera d'apporter votre expertise technique sur le projet DSPM, d'assurer le maintien en condition de sécurité de la solution collaborative M365, de déployer et piloter les campagnes de revue des accès. Vous serez également en charge du fonctionnement des solutions de découverte et de gouvernance des accès aux données bureautiques, contribuant ainsi activement à la protection des données. Vos principales activités comprendront : Contribuer au déploiement de la solution DSPM Varonis. Définir les règles de détection du DSPM, assurer l'analyse et le reporting des résultats. Assurer le maintien en condition opérationnelle (MCO) de la solution DSPM. Définir, paramétrer et améliorer les règles de sécurisation M365. Produire des analyses de sécurité relatives aux nouveaux services M365. Garantir la sécurité des projets intégrés au tenant M365. Déployer la solution de revue des partages M365 (IDECSI) au sein du Groupe et piloter les campagnes de revue associées. Assurer la maintenance et l'amélioration d'un tableau de bord présentant les indicateurs clés d'activité. Garantir le maintien en condition opérationnelle des solutions de protection des données bureautiques. Suivre et traiter les incidents et proposer des remédiations (N2/N3). Rédiger des guides et des standards de sécurité. Assurer une veille technologique proactive.
Mission freelance
Data Engineer
Hanson Regan Limited
Publiée le
Apache NiFi
Cloudera
Hadoop
12 mois
500-650 €
Paris, France
Hanson Regan recherche un Data Engineer pour une mission 12 mois renouvelable, basée à Paris Données en anglais : Compétences: -Hadoop Cloudera - Flux de travail / injection - Outils de visualisation - Pipeline Longue liste : Les outils d’ingestion de données : NiFi Les outils de stockage de données : HDFS, CEPH Les outils d’ordonnancement des jobs : Airflow Les outils de gestion des ressources (CPU, RAM) : YARN Les moteurs et frameworks d’exécution : MapReduce, Spark, TEZ Les langages de développement : Python, Scala Les outils de prototypage/exploration : Jupyter, Dataiku Les outils orientés datamart : Hive, PostgreSQL Les outils de proxyfication (Access) : Knox, HAProxy Les outils d’affichage d’indicateurs et tableau de bord : Grafana, Tableau, Superset, S7 Les outils de sécurité : Kerberos, LDAP, IPA gratuite Les outils d’administration et de gouvernance : ClouderaManager, Ranger Les outils de supervision et d’exploitation (DevOps) : Prometheus, Puppet, Heat, Ansible Les dépôts de binaires : Mirroring des dépôts issus du web HTTP pour les applications tiers. Merci de nous contacter au plus vite si vous êtes intéressé ou si vous connaissez une personne correspondant à ce profil
Mission freelance
UI/UX Data Designer (H/F) - IDF + Remote
Mindquest
Publiée le
CRM
Figma
Microsoft Power BI
3 mois
Val-de-Marne, France
Contexte Mon client recherche dans la continuité du développement de l'écosystème Digital, un UI//UX Data Designer, ils poursuivont la construction du pilier décisionnel : DataHub Mission Le chantier Cockpit a pour objectif de construire des outils de pilotage afin d'assister dans la prise de décision. Dans ce chantier, le Design System DataViz a été construit avec l'objectif de rendre les informations complexes accessibles et exploitables grâce à une visualisation claire et intuitive. La construction du Design System DataViz est au coeur de la construction des outils de pilotage (chantier Cockpit). Il s'agit de construire un langage commun pour l’ensemble des métiers en standardisant les éléments design et les composants visuels Power BI. Contenu détaillé de la prestation : Vous allez travailler étroitement avec le directeur de projets Design System DataViz, les équipes Data et les métiers. Le but de la prestation consiste à l'accompagnement UX/UI design dans la production DIRECTION DES SYSTEMES D'INFORMATION Le but de la prestation consiste à l'accompagnement UX/UI design dans la production et livraison d'éléments design et graphiques, de composants Power BI dessinés dans le cadre du design system DataViz, de maquettes Power BI. Comprendre les besoins et les enjeux à piloter ? Comprendre les connaissances nécessaires pour le pilotage et la décision Traduire les besoins/enjeux en conception et en design en s'appuyant sur le design system actuel Par exemple : o Mettre en place les scénarisations des KPI o Mettre en place la hiérarchisation visuelle par typographie et graphique o Mettre en place les filtres interactifs… Concevoir / produire les éléments de design pour répondre au besoin conception Produire / enrichir / standardiser le design system - les éléments design pour conception (ex: palette de couleurs contrastées, encadrés et pictogrammes, graphiques enrichis et dessinés…) Produire / faire évoluer / enrichir / standardiser le design system es composants Power BI pour Dashboard Maintenir / faire évoluer / produire la bibliothèque design system conception (éléments design) Maintenir / faire évoluer / produire la bibliothèque design system Power BI (composants PBI dessinés) Produire les maquettes Power BI Conception / réalisation des outils de pilotage pour les différents enjeux / métiers Réalisation des éléments design Réalisation des éléments Power BI dessinés Réalisation des maquettes / reportings PBI dynamiques Enrichissement et gestion de nos dictionnaires design system Rédaction des cahiers des charges, spécifications fonctionnelles et techniques nécessaires Garant de la qualité de réalisation Le(la) consultant(e) va travailler sur les environnements (Figam, PowerBI, Azure, Databricks, SQL, …) co-managé par les équipes Data Factory ainsi que les équipes DCLD (direction client digital). Modalité de la Prestation Livrables Design system – éléments de conception UIUX Design system – composants Power BI dessiné Reportings/Maquettes Power BI dynamique Cahiers des charges / CR / Dictionnaires Présentation / Documentation Technique Figma Power BI / DAX Cloud Azure Databricks SQL Python, Spark, Scala Spyder…
Offre d'emploi
Développeur MOE Java / React (H/F)
ONSPARK
Publiée le
Azure
Java
PostgreSQL
48 mois
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers le renforcement d'équipes DSI, OnSpark intervient auprès d'un organisme de protection sociale parisien pour accompagner un programme structurant de refonte de système d'information, hébergé sur Microsoft Azure. Nous recherchons des Développeurs MOE pour rejoindre cette mission longue durée. Missions Au sein d'une DSI à taille humaine, vous contribuez activement au développement et à la maintenance d'une application métier stratégique (architecture microservices sur Azure) ainsi que du site internet de l'organisme : Développement de composants backend (API REST, batchs, microservices Java/Spring Boot) et frontend (IHM React/TypeScript) Conception et optimisation des requêtes SQL sur PostgreSQL, gestion des migrations de schéma Contribution aux pipelines CI/CD (GitOps, Kubernetes) et automatisation (Bash/Python) Rédaction des tests unitaires et d'intégration, participation aux campagnes de recette Rédaction de la documentation technique et des procédures de déploiement Maintenance corrective, évolutive et adaptative des applications en production
Offre d'emploi
Consultant·e Customer Technology Advisor / Delivery Manager + Product Owner
ANAFI CONSULTING
Publiée le
Architecture
Big Data
BigQuery
2 ans
50k-80k €
400-680 €
Île-de-France, France
Qui sommes-nous ? Anafi Consulting est un cabinet de conseil en transformation technologique et organisationnelle, basé à Paris. Nous accompagnons nos clients grands comptes dans leurs projets stratégiques autour du Cloud , de la Data , du DevOps et des plateformes IT , en combinant expertise technique, vision produit et accompagnement au changement. Votre rôle Dans le cadre du renforcement d’une équipe dédiée à l’adoption des offres technologiques, nous recherchons un(e) Customer Technology Advisor (Adopt Owner) . Vous serez au cœur de la relation entre les équipes métiers (clients internes) et les pôles technologiques , avec pour objectif de faciliter l’adoption, la compréhension et l’usage des solutions IT (Cloud, Data, plateformes, environnements conteneurisés et outillage DevOps). Votre rôle combine expertise technique, coordination produit et accompagnement des équipes . Vos missions principalesRelation & Pilotage Être le point de contact privilégié entre les entités clientes et les équipes technologiques. Collecter, qualifier et prioriser les besoins et irritants métiers . Piloter les demandes , leur suivi et leur traitement. Assurer la co-construction des offres avec les équipes produit. Faciliter l’alignement entre les besoins métiers et les capacités techniques des plateformes Cloud, Data et DevOps . Adoption & Acculturation Accompagner les équipes dans l’adoption des nouvelles offres et fonctionnalités. Animer des présentations, ateliers, webinars et sessions d’acculturation. Apporter un premier niveau de support technique et de conseil. Promouvoir les offres et faciliter leur appropriation. Sensibiliser les utilisateurs aux bonnes pratiques autour des plateformes OpenShift , des chaînes CI/CD Jenkins et des services Data/Cloud. Expertise & Innovation Participer à l’expérimentation de nouvelles technologies ( sandbox, POC ). Être référent sur les technologies Data, Cloud, conteneurisation, orchestration et bases de données . Contribuer aux roadmaps produits et aux décisions stratégiques (comités, arbitrages). Identifier les impacts techniques, organisationnels et métiers des évolutions. Contribuer à la promotion et à l’adoption de solutions basées sur OpenShift , Jenkins , architectures distribuées et services managés Cloud. Suivi & Qualité Suivre les indicateurs d’adoption et de performance des offres. Assurer la cohérence entre services délivrés et niveaux de service attendus . Remonter les dysfonctionnements et contribuer à l’amélioration continue. Participer à l’amélioration de l’expérience utilisateur sur les offres de plateformes, de déploiement et d’industrialisation. Environnement techniqueBig Data & NoSQL Data Lakehouse Cloudera Teradata MongoDB Bases de données PostgreSQL Oracle MySQL SQL Server Redis Cloud Public (GCP) BigQuery Firestore Conteneurisation, plateformes & DevOps OpenShift Kubernetes Docker Jenkins GitLab CI/CD / outils d’industrialisation API management, déploiement applicatif et automatisation Environnements techniques Data Streaming Architectures distribuées Plateformes applicatives et environnements conteneurisés
Mission freelance
Data Engineer Spark Scala, Airflow, Hive, Jenkins, Nexus, HDFS, Gitlab Nantes ( 3 à 4 jours TT).
WorldWide People
Publiée le
Scala
12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Spark Scala Scala, Spark, Airflow, Hive, Jenkins, Nexus, HDFS, Gitlab Nantes ( 3 à 4 jours de télétravail) Scala, Spark, Airflow, Hive, Jenkins, Nexus, HDFS, Gitlab Le data engineer travaillera sur un datalake( MCO, évolutions fonctionnelles). Les principales tâches seront: -Réaliser les développements en langage SCALA, - Réaliser les travaux jusqu’en environnement de production - Réaliser le support N3 de la production - Réaliser la supervision des traitements - Documenter les réalisations. Nous recherchons un data engineer confirmé qui maitrise nécessairement Spark et Scala
Mission freelance
Développeur Salesforce - projet Agentforce - Data Cloud
KUBE Partners S.L. / Pixie Services
Publiée le
Agent IA
Salesforce
6 mois
Hauts-de-Seine, France
Dans le cadre du développement de ses activités autour de Salesforce et des solutions d’IA, notre client est à la recherche de Développeurs Salesforce expérimentés pour intervenir sur des projets innovants intégrant Agentforce, la data et le CRM 360 . Vous participerez à la conception et à la réalisation de solutions couvrant : Les processus métiers : vente, service client, marketing La gestion, transformation et exploitation des données L’intégration de cas d’usage liés à l’ intelligence artificielle (Agentforce / IA Salesforce) Développement en Apex, Lightning Web Components (LWC) et Flows Configuration des clouds Salesforce : Sales Cloud Service Cloud Mise en place d’automatisations et de logiques métiers avancées Garantir la qualité du code : tests, revue de code, bonnes pratiques
Mission freelance
251443/Développeur Datastage / power BI Lyon
WorldWide People
Publiée le
Microsoft Power BI
Teradata
3 mois
Lyon, Auvergne-Rhône-Alpes
Développeur Datastage (environnement Teradata) / power BI Lyon Renforcement de l’équipe de développement du SI Décisionnel, avec une ressource capable d’intervenir : sur la chaîne d’alimentation des données (ODS, DWH, Datamarts), sur la restitution décisionnelle via Power BI, dans un cadre Agile SCRUM. La prestation est réalisée en coordination avec les équipes BE, qualification et Scrum Master. Missions principales Rattaché au responsable développement du SI Décisionnel, l’intervenant assurera : le développement Datastage et SQL (datawarehouse, datamarts), la conception de datasets, dataflows et rapports Power BI, les tests unitaires et livraisons, le respect des normes et bonnes pratiques, la prise en charge des anomalies et évolutions en environnement RUN, l’optimisation de requêtes SQL. Environnement technique ETL : Datastage (environnement Teradata) Databases : Teradata, PostgreSQL Restitution : Power BI Méthodologie : Agile SCRUM, outil de ticketing (type JIRA) Objectifs et livrables Dossier d'exploitation a destination équipe Prod Test unitaire (plan et fiches de test) Reporting d'avancement Compétences demandées Compétences Niveau de compétence Microsoft Power BI Confirmé Optimisation SQL Confirmé IBM Datastage Confirmé
Mission freelance
LYON - Developpeur Datastage / Power BI
ODHCOM - FREELANCEREPUBLIK
Publiée le
IBM DataStage
Microsoft Power BI
12 mois
Lyon, Auvergne-Rhône-Alpes
***Contexte du besoin Notre client recherche un profil en développement Datastage / Power BI afin d'intégrer l'équipe développement sur le site de Lyon. ***Objet de la prestation Le présent marché spécifique a pour objet le renforcement de l'équipe de développement avec l'intégration d'une ressource maitrisant la partie alimentation (ods, dwh, datamart) et la partie restitution avec l'outil Power BI, . Fort de ses expériences techniques sur cette technologie, le prestataire devra également montrer ses connaissance des méthodes Agiles (plus particulierent SCRUM ) ***Description du besoin : Rattaché au responsable développement du SI, l'intervenant aura pour principales missions : - Développement de programme dataware, datamart (Datastage et SQL) - Développement de dataset, dataflow et rapports sous l' outil Power BI - Test unitaire et livraison - Respect des normes et bonnes pratiques au sein du SID - Prise en compte d'anomalie, d'évolution en lien avec le BE et la qualification - Optimisation de requêtes SQL ***Technologie et certifications attendues : POWER BI dans un environnement Datastage Teradata, et PostgreSQL => Intégration de l'équipe RUN (Prise en compte d'anomalies et d'évolutions)
Offre d'emploi
Expert Windows & SCCM pour serveurs
NEWAY SOLUTION DIGITALE
Publiée le
Active Directory
Automatisation
Azure
46k-56k €
Île-de-France, France
Responsabilités: · Se concentrant sur la gestion des serveurs d'infrastructure avec une forte orientation sécurité . · Gestion de la flotte de serveurs Windows via SCCM, y compris l'empaquetage des applications, l'application de correctifs et la gestion des vulnérabilités. · Automatisation des tâches de réplication entre les sites de production et de reprise après sinistre. · Fournir des solutions techniques pour les mises à niveau du système d'exploitation Windows , y compris au sein de la plate-forme de virtualisation VMware . · Participation à divers comités techniques . · Mettre en œuvre des normes de sécurité pour sécuriser l'ensemble de l'écosystème Windows. · Automatisation des processus de gestion de parc de serveurs . · Dépannage et gestion des performances.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4735 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois