L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 203 résultats.
Offre d'emploi
INTEGRATEUR TECH-OPS
KEONI CONSULTING
Publiée le
Mongodb
PostgreSQL
YAML
18 mois
20k-60k €
100-500 €
Paris, France
Contexte : Nous recherchons un TechOps, un référent transversal garant de la qualité d’intégration, de la fiabilité opérationnelle, et de l’exploitabilité by design des solutions déployées au sein de l’équipe Infrastructure. Il participera à renforcer la fiabilité opérationnelle (RUN), l’amélioration continue, la standardisation, l’automatisation des processus d’exploitation et la montée en maturité vers les pratiques modernes de Platform Engineering. La ressource devra s’impliquer pour devenir un référent technique transverse, capitalisant sur les périmètres applicatifs et les solutions techniques. La répartition indicative des activités sera de 60 % au sein du Bureau Technique et 40 % en contributions techniques transverses (documentation, automatisation, amélioration continue, outillage). MISSIONS OBJET DE LA PRESTATION Préparation, coordination et suivi des mises en production. Contrôle et validation des livrables techniques. Intégration et paramétrage des solutions logicielles. Réalisation des tests techniques : unitaires, intégration, validation d’exploitabilité. Installation des nouveaux modules et des évolutions applicatives. Participation aux analyses d’impacts techniques. Contribution à l’évaluation des risques techniques. Vérification de la conformité aux normes de sécurité, d’architecture et d’exploitation. Respect strict des normes, standards, architectures, procédures et bonnes pratiques d’exploitation. Participation active à l’évolution des standards techniques du TechOps. - - - - - - - - - - - - Déploiement et maintien de solutions techniques et d’automatisations (scripts, pipelines CI/CD, supervision, IaC lorsque applicable). Standardisation des outils, patterns et bonnes pratiques. Contribution aux services et solutions opérées par l’équipe Platform Engineering. Production et mise à jour de la documentation technique (DEX, référentiels, procédures…). Reporting régulier auprès du responsable Infrastructure et des ISM (Integration Service Managers). Accompagnement, vulgarisation et partage de connaissances auprès des équipes internes. Participation à l’acculturation DevOps au sein du Bureau Technique. Solide rigueur technique et capacité d’analyse. Aisance rédactionnelle et esprit de synthèse. Excellente communication orale et écrite. Aptitude à vulgariser et à accompagner les équipes dans la montée en compétences. Capacité à être force de proposition et à mener une veille technologique régulière. PROFIL & ENVIRONNEMENT TECHNIQUE L’environnement technique de l’équipe d’Infrastructure est composé des éléments ci Compréhension limitée des concepts de production et DevOps, capacité à exécuter des tâches simples sous supervision (par exemple, exécution de scripts ou suivi des indicateurs de performance). Capacité à configurer des environnements de développement et de production, à utiliser des outils de gestion de version (comme Git) et à exécuter des tâches de maintenance préventive. Maîtrise des outils d'intégration et de déploiement continu (CI/CD), capacité à gérer des conteneurs (Docker, Kubernetes), et à optimiser les processus de production tout en surveillant les performances. Compétences expertes Expertise dans la gestion d'infrastructures cloud (AWS, Azure, GCP), capacité à concevoir des architectures résilientes, à implémenter des pratiques de sécurité, et à diriger des initiatives d'amélioration continue. Systèmes & Architecture Infrastructure Unix, Linux ,Windows Server ,Orchestration & Scheduling,Control-M ,supervision / Observabilité, Zabbix, Instana, Prometheus,Grafana, Kibana ,Scripting & Programmation, Shell, Python (scripting), powerShell, Python (dev),YAML,SQL,Java, NodeJS, ReactJS, Réseau & Équilibrage, HAProxy, Nginx3, API & Intégration, API REST, gestion & Analyse des Logs, Loki, Elasticsearch, Workflows & Traitements techniques, Apache Airflow ,Gestion de code (VCS) Compétences techniques essentielles (obligatoires) - - - - - - - - Systèmes & Architecture Infrastructure o Très bonne maîtrise des systèmes d’exploitation Linux et Windows Server (niveau expert). o Compréhension des environnements Unix/AIX et des mécanismes de haute disponibilité (HACMP, VCS, Windows Cluster). o Bonne compréhension des architectures d’infrastructure toutes couches (OS, réseau, middleware, API, stockage, supervision). Cloud & Modernisation o Connaissance solide des concepts Cloud (public, privé, hybride). o Compréhension des principes d’architecture Cloud (scalabilité, résilience, sécurité, patterns d’intégration). o Savoir travailler dans des environnements Cloud et accompagner la migration de solutions legacy. Automatisation & Infrastructure-as-Code o Maîtrise d’Ansible pour l’automatisation des configurations et des déploiements. o Connaissance de Terraform (IaC) pour comprendre ou valider les modèles d’infrastructure automatisée. o Connaissance de Vault pour la gestion sécurisée des secrets. o Capacité à intégrer et à standardiser les outils DevOps dans la chaîne d’exploitation. Orchestration & Traitements o Maîtrise d’Apache Airflow pour l’orchestration de workflows techniques et applicatifs. CI/CD & DevOps o Bonne connaissance des chaînes CI/CD (GitLab CI, GitHub Actions, Jenkins). o Capacité à valider l’exploitabilité d’un pipeline et à définir les prérequis techniques. o Capacité à intégrer des solutions DevOps, sans nécessairement développer des pipelines complexes. Langages & Scripting o Maîtrise d’un langage de programmation tel que Java ou Python (lecture, compréhension, validation technique). o Très bonne maîtrise du Shell (niveau expert), Python scripting et PowerShell. o Bonne maîtrise de YAML pour la lecture des configurations modernes (CI/CD, Kubernetes, Airflow). o Connaissances de base en SQL (lecture, diagnostic simple). Observabilité / Supervision / Logs o Connaissance des outils de supervision (Zabbix, Instana). o Capacité à lire et interpréter des logs via Loki, Elasticsearch, Kibana, Grafana, Prometheus. o Savoir identifier des incohérences, anomalies ou points d'amélioration sur la chaîne d’exploitabilité. Réseau, API & Équilibrage - - o Bonne compréhension du fonctionnement des API REST (consommation, contrats, validations). o Connaissance des équilibreurs de charge (HAProxy, Nginx). o Comprendre les mécanismes de SLB/GSLB (Load Balancing global/local). Écosystème applicatif & composants techniques o Compréhension des serveurs d’applications (Apache, Tomcat, JBoss). o Connaissance des systèmes de messagerie (Kafka, RabbitMQ, IBM MQ Series). o Connaissance des solutions de transferts (TOM/CFT/PeSIT). o Familiarité avec les bases de données (MS SQL, Redis, MongoDB, PostgreSQL) et leurs outils (DBeaver/SQL Manager). Les compétences optionnelles apportant un plus sont : - - - - - Maîtrise supplémentaire de langages : YAML avancé, C++, C#, HTML/CSS. Connaissance des solutions de virtualisation (VMWare, Hyper-V…). Connaissance de PostgreSQL et MongoDB (niveau opérationnel). Familiarité avec la gestion de projet et les méthodologies agiles. Compréhension plus avancée des solutions de coffre-fort (Vault, CyberArk…).
Offre d'emploi
Chef de projet senior H/F - Rennes
INFOTEL CONSEIL
Publiée le
Agile Scrum
JIRA
3 mois
45k-55k €
400-500 €
35000, Rennes, Bretagne
Description Au sein du produit Services transverses des échanges, dans la squad Services des échanges, gestion des transferts de fichier pour les SI MYSYS, EQUINOXE, Natixis. PROFIL Chef de projets SI Au sein du produit Services transverses des échanges, dans la squad Services des échanges, gestion des transferts de fichier Groupe BPCE SI pour les SI MYSYS, EQUINOXE, Natixis. Pilotage de l'équipe 5 collaborateurs Mise en place d'un JIRA Priorisation des tâches Atelier et coordination avec l'ensemble des patie prenantes Echanges avec tous les produits métiers / et production applicatives BPCE SI et BPCE IT ainsi que les partenaires extermes Suivre le RUN et le BUILD Développement d'évolution/correction du portail de supervision Suivre le PROGRAMME ORION SOLUTION pour les échanges de fichiers, Interface d’Accès au Service Transfert de fichiers est un outil d’échange de fichiers (transferts de fichiers et puits de données) principalement entre applications batch. Il fonctionne en mode asynchrone (émission découplée de la réception, grâce aux fonctions de puits de données). Flux gérés sur les SI : MYSYS / EQUINOXE / NATIXIS / Socle 89C3 / DATAONE 1 millions de FLux par an => évolution à 1, 7 millions de flux post ORION en 2028 37 000 types de flux singuliers (Open, Zos, Ias …) transitent par l’IAS3 de manières régulières tout SI confondu (MYSYS, EQX,…) Environnement technique : linux, aix, windows, z/os - Langage de programmation : C, java, sql, Shell, bat, jcl Environnement technique : socle Linus et windows, connaissances réseaux, et IT Obligatoires, dev en java, C Outil pilotage : JIRA/Confluence /XRAY - Office 365 Méthode Agile / outils clarity/ reporting /office
Mission freelance
PROJECT MANAGER SENIOR
Wana Accompagnement
Publiée le
ERP
GxP
Logistique
6 mois
600-700 €
Marseille, Provence-Alpes-Côte d'Azur
1. Contexte et finalité du poste Dans un environnement multi projets, international et à forts enjeux business, le/la Project Manager Senior intervient en appui direct du Responsable du Service de Développement Informatique. Son rôle n’est pas uniquement d’être un chef de projet supplémentaire, mais un cadre senior, capable de : Piloter des projets clés liés au Métier de la Logistique Pharmaceutique, Sécuriser l’exécution des projets en cours, Accompagner et faire monter en maturité les chefs de projet en place, Apporter une vision consolidée, claire et factuelle de l’activité projets à destination du management Etre l'interface avec le Client tout au long du projet 2. Mission principale Assister le Responsable de Service dans le pilotage opérationnel et stratégique du portefeuille projets, en garantissant : la maîtrise des délais, coûts et risques, la qualité du reporting et de la communication managériale, la cohérence méthodologique et le respect du cycle de vie logiciel, la coordination efficace avec les parties prenantes internationales (UK, NL, ESP, PORTUGAL…). la mission se déroulera principalement à Marseille (télétravail possible après 3 mois) 3. Responsabilités clés 3.1. Pilotage de projet Piloter certains projets clé Apporter un regard senior sur les plannings, charges, budgets et trajectoires projet. Challenger les plans projets lorsque nécessaire, avec une approche factuelle et orientée solution Contribuer à la montée en maturité des pratiques de gestion de projet au sein de l’équipe 3.2. Gouvernance, méthodes et cycle de vie logiciel Veiller à l’application cohérente des méthodologies projet (cycle en V, staged-gate, gouvernance de jalons) S’assurer de la qualité des livrables clés aux différentes étapes du cycle de vie logiciel (cadrage, conception, build, tests, déploiement) Contribuer à l’amélioration continue des processus projet, en lien avec les réalités opérationnelles 3.3. Suivi budgétaire, risques et escalades Contribuer au suivi budgétaire des projets et à l’anticipation des dérives. Identifier, formaliser et suivre les risques majeurs et points de vigilance. Préparer et structurer les escalades à destination du management lorsque nécessaire, avec des propositions d’arbitrage claires. 3.4. Reporting, visibilité et communication managériale Produire un reporting clair, synthétique et orienté décision, à destination du Responsable de Service et du management européen. Consolider la vision portefeuille : avancement, capacité, risques, priorités. Contribuer à la mise à jour des roadmaps du service Participer à la planification des capacités et à l’anticipation des besoins futurs (ressources, compétences). 3.5. Fonctionnement interne et coordination internationale Veiller au respect des méthodes projet par les équipes Être un point de contact crédible et structurant pour le management 3.6. IMPORTANT La mission ne convient pas à un consultant ne souhaitant pas travailler sur site auprès des équipes à Marseille
Offre d'emploi
Data Analyst - CDI Uniquement
AEROW
Publiée le
Grafana
Python
SQL
40k-50k €
Bruxelles, Bruxelles-Capitale, Belgique
ATTENTION, CDI UNIQUEMENT, POUR PERSONNE HABITANT OU SOUHAITANT S'ETABLIR A BRUXELLES OU PROCHE BRUXELLES: Dans le cadre de ses activités opérationnelles, l’organisation recherche un Data Analyst capable de soutenir les équipes métiers et IT dans l'analyse de la performance, la qualité des données, le reporting et la génération d’insights. La mission est orientée vers l’amélioration continue, la fiabilité opérationnelle et la valorisation des données issues de multiples systèmes. 2. Responsabilités principales A. Cas d’usage analytiques Analyse de la performance et de la fiabilité des processus opérationnels. Reporting sur les actifs et la maintenance (utilisation, disponibilité, temps d’arrêt). Analyse de tendances en sécurité , incidents et anomalies. Suivi des coûts et de l’efficacité opérationnelle dans différents domaines. B. Gestion & qualité des données Structuration et harmonisation de données issues de multiples systèmes opérationnels . Mise en place de processus de contrôle qualité pour assurer la fiabilité des analyses. Support à l’intégration des résultats analytiques dans les systèmes de reporting existants . C. Reporting & visualisation Conception et mise en œuvre de tableaux de bord dédiés aux utilisateurs opérationnels. Développement de KPI standardisés et cadres de reporting. Optimisation continue des rapports pour améliorer la lisibilité et la génération d’insights. D. Transfert de connaissances Coaching des Data Analysts internes (meilleures pratiques, storytelling, visualisation…). Documentation des processus analytiques, modèles de données et guidelines de gouvernance.
Offre d'emploi
DBA Exadata + Multi SGDB
OBJECTWARE
Publiée le
Exadata
Microsoft SQL Server
Oracle
3 ans
Île-de-France, France
Assurer l’ administration, l’exploitation et l’optimisation des bases de données critiques, avec une expertise forte sur Oracle Exadata , dans un environnement multi-SGBD , en garantissant performance, disponibilité, sécurité et continuité de service . Le DBA intervient aussi bien sur le RUN que sur le BUILD , dans des contextes de forte volumétrie et haute criticité . Intégration dans une équipe d'expert DBA RUN – Exploitation & MCO Assurer le Maintien en Condition Opérationnelle (MCO) des bases de données Supervision proactive des performances, de la disponibilité et de la capacité Gestion des incidents N2 / N3 et analyse des causes racines Suivi des SLA, reporting et amélioration continue Participation aux astreintes et interventions en heures non ouvrées si nécessaire Administration des environnements Oracle Exadata Optimisation des performances : SQL stockage Exadata Smart Scan Gestion : patching upgrades capacity planning Support aux équipes projets et applicatives sur les sujets de performance et d’architecture
Mission freelance
Data Engineer Azure / IA
Sapiens Group
Publiée le
Azure
Azure DevOps
Databricks
12 mois
400-450 €
Lille, Hauts-de-France
Ingénierie Data Concevoir et développer des pipelines de données (ETL / ELT) . Collecter, transformer et intégrer des données provenant de différentes sources (API, bases de données, fichiers, streaming). Mettre en place et optimiser des flux de données robustes et scalables . Garantir la qualité, la fiabilité et la traçabilité des données . Concevoir et maintenir des modèles de données adaptés aux usages analytiques. Plateforme et outils Data Développer des solutions sur des plateformes Big Data et Cloud (ex : Databricks). Automatiser les workflows et déploiements via CI/CD (Azure DevOps) . Optimiser les performances des traitements Python et SQL . Participer à la mise à disposition des données pour les outils de visualisation et de reporting (Power BI) . Intelligence Artificielle appliquée à la Data Utiliser des outils d’IA pour assister le développement (génération et optimisation de code). Mettre en place des processus automatisés d’analyse et de transformation de données basés sur l’IA. Contribuer à l’intégration de modèles d’IA ou de Machine Learning dans les pipelines de données. Utiliser l’IA pour la documentation automatique, la détection d’anomalies et l’analyse exploratoire des données . Collaboration et méthodologie Travailler en méthodologie Agile / Scrum . Collaborer avec les équipes Data, BI, Data Science et métiers . Participer aux rituels Agile (daily, sprint planning, rétrospective). Contribuer aux bonnes pratiques de gouvernance et de gestion des données .
Mission freelance
Architecte Data AWS (H/F)
Insitoo Freelances
Publiée le
Apache Kafka
Apache NiFi
Apache Superset
2 ans
550-610 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Architecte Data AWS (H/F) à Lyon, France. Contexte : Dans le cadre d’un programme de transformation Data, nous souhaitons consolider son socle data autour d’une architecture cible fiable, évolutive et sécurisée. L’architecte data interviendra en support de l'équipe existante, en assurer la validation technique et fonctionnelle, et mettre en œuvre les mesures de sécurité nécessaires. Les missions attendues par le Architecte Data AWS (H/F) : Sous la responsabilité du responsable de centre d'expertise Data, il aura en charge de : Valider, sécuriser et faire évoluer l’architecture technique de la plateforme Data (Data Lake, Data Mesh, Data Warehouse) en intégrant les exigences de sécurité Garantir la cohérence, la robustesse et la sécurité des flux de données entre les différents systèmes. Accompagner les équipes projets dans le choix et l’implémentation des solutions techniques. Assurer la veille technologique et proposer des améliorations continues. Collaborer avec les architectes, le RSSI, DPO et équipes cybersécurité pour intégrer les contrôles nécessaires. Assurer la traçabilité des décisions et la documentation des choix techniques. Partager sur des solutions et architectures mises en œuvre chez d'autres clients. Assurer la veille technologique et proposer des améliorations continues. Environnement technique : Architecture et modélisation : Conception de modèles de données (relationnels, NoSQL, dimensionnels, etc.). Maîtrise des architectures Data Warehouse, Data Lake et Data Mesh. Base de données : Expertise en systèmes de gestion de bases de données SQL, NoSQL et notamment PostgreSQL, Snowflake, ElasticSearch et DuckDB Cloud Computing : Connaissance approfondie des services de données des fournisseurs Cloud et notamment AWS Langages et technologies : Intégration & Flux : Apache Nifi ; Transport & Temps Réel : Apache Kafka ; Visualisation (BI) & Reporting : Apache Superset Gouvernance Data : Définition des politiques, des standards et des normes pour garantir la qualité, l'intégrité et la gestion du cycle de vie des données. Sécurité : Connaissance des principes de cybersécurité et maîtrise de la réglementation sur la protection des données (notamment le RGPD). Approche Secure by design (chiffrement, gestion des accès, observabilité, supervision).
Mission freelance
Data Analyst / Data Visualization Power BI – Certifié PL-300
NEXORIS
Publiée le
Analyse
6 mois
450 €
Paris, France
Notre client recherche un Consultant Data Analyst / Data Visualization Power BI – Certifié PL-300 (H/F) dans le cadre d’une longue mission. Dans le cadre du renforcement de ses capacités data, notre client recherche deux consultants spécialisés en Data Analyse et Data Visualisation avec une expertise forte sur Power BI. La mission s’inscrit dans des cas d’usage orientés Marketing, avec un enjeu clé autour de la certification Microsoft PL-300 (Power BI Data Analyst) garantissant la maîtrise des bonnes pratiques de modélisation et de dataviz. - Piloter des projets data grâce à de solides capacités d’organisation, de communication et de priorisation - Identifier et prioriser les besoins métiers afin de proposer des solutions data pertinentes et adaptées - Traiter et analyser de larges volumes de données via BigQuery ou équivalent, en utilisant SQL, Excel et éventuellement Python - Concevoir et développer des tableaux de bord Power BI de bout en bout : extraction, transformation, modélisation et visualisation des données - Développer des dashboards performants en utilisant les langages M et DAX - Automatiser les processus internes liés à la data (reporting, analyses, mise en production) - Produire et restituer des analyses et insights à forte valeur ajoutée business, notamment lors d’échanges avec les équipes métiers
Mission freelance
Data Analyst Lead – Gouvernance & Conception Data
Comet
Publiée le
Data Strategy
Databricks
Microsoft Power BI
300 jours
550-580 €
Châtillon, Île-de-France
Data Analyst Lead – Gouvernance & Conception Data Objectif global Renforcer l’expertise en analyse, conception et gouvernance des données au sein d’un DataLab, dans un contexte grande distribution multi-enseignes et multi-métiers. Livrables : - Expertise analytique et conception de solutions data - Contribution à la structuration des KPI métiers - Animation de la communauté Data Analyst - Participation à la Data Authority - Contribution au modèle de données commun Contexte de la mission : - Mission au sein d’un DataLab, rattachée à l’équipe Gouvernance des données. Environnement : - Grande Distribution - Multi-enseignes - Multi-métiers Enjeux forts de performance, qualité des données, modélisation et usages analytiques à grande échelle ⚠️ La connaissance opérationnelle de la Grande Distribution est impérative. Objectifs - Apporter une expertise avancée en data analyse et en conception de solutions data - Contribuer à la montée en compétence des Data Analysts - Accompagner les équipes produits et projets sur des problématiques analytiques complexes - Animer la communauté Data - Coanimer la Data Authority et les ateliers de gouvernance Missions principales : - Expertise en analyse de données et conception de solutions orientées data - Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions) - Structuration et alignement des KPI métiers - Animation de la communauté Data Analyst (ateliers, bonnes pratiques, REX) - Contribution et évolution du modèle de données commun - Coanimation des instances de gouvernance Data Compétences techniques attendues : Impératif : Connaissance confirmée de la Grande Distribution Enjeux business KPI clés : ventes, marge, stock, approvisionnement, performance magasin Usages métiers de la donnée Important Modélisation des données (confirmé) Analyse de données (confirmé) Conception de solutions data (confirmé) Stack & Environnement technique Big Data : - SQL - Databricks - Scala - Python Environnement Azure BI / Reporting : - Power BI - MicroStrategy Modélisation : - PowerDesigner Gouvernance & Qualité : - DataGalaxy - SODA (Data Quality / Observability) Méthodologie & outils : - SAFe (Agilité à l’échelle) - Jira Profil recherché - Data Analyst Senior / Lead - Forte capacité à challenger les solutions - Vision transverse et structurante - Capacité à fédérer une communauté - Aisance en animation d’ateliers - Posture d’expert référent
Mission freelance
Ingénieur Technique - Renfort Support Utilisateurs
Codezys
Publiée le
KNIME
SQL
VBA
12 mois
Paris, France
La mission se déroulera au sein de la Direction Comptable Groupe , dans le service Études, Support et Administration Outils , structuré en deux unités : Administration des outils Études, Projets et Support Outils L’unité « Études, Projets et Support Outils » est composée d’un manager et de cinq collaborateurs. L'équipe est responsable des missions suivantes : Assister les responsables opérationnels dans la formulation de leurs besoins concernant les applications Participer à la rédaction des cahiers des charges et des spécifications fonctionnelles pour les évolutions des outils comptables Valider les spécifications fonctionnelles en collaboration avec les comptables Approuver la pertinence opérationnelle des solutions proposées et les plannings associés Configurer les schémas comptables Valider les ajustements et arbitrages ayant des impacts opérationnels Définir le plan de recette et en coordonner la mise en œuvre jusqu’à la mise en production des évolutions Communiquer des reportings aux responsables opérationnels Objectifs et livrables Dans le cadre de ses missions, la direction comptable utilise plusieurs applications bureautiques (Access, Excel, Knime, Business Objects, Tableau) en complément de l’outil comptable Océan (Oracle PeopleSoft) et de Ciclade (Business Objects). Les activités principales incluent : Assistance aux utilisateurs Maintenance des applications développées sous Access Développement de rapports avec Business Object Conception de processus avec Knime Actions à réaliser Participer à la définition des spécifications générales Réaliser les développements nécessaires Élaborer les jeux de tests pour les tests unitaires Réaliser ces tests unitaire Identifier et corriger les dysfonctionnements Assurer la maintenance corrective Effectuer la maintenance évolutive Rédiger la documentation associée Assister les utilisateurs Livrables attendus Rapports Business Objects : états financiers, contrôles Processus KNIME Tableaux de bord Tableau Bases Access Suivi des demandes via JIRA Réponses aux utilisateurs Documentation des applications Modes opératoires et guides utilisateurs
Mission freelance
Experienced DATA ENGINEER / TECH LEAD
Codezys
Publiée le
Data management
SQL
12 mois
Toulouse, Occitanie
Contexte de la mission Nous sommes à la recherche d’un(e) expert(e) en gestion de projets techniques, combinant compétences en ingénierie de données, SQL, ETL, et en outils de reporting, pour intervenir sur un secteur crucial lié à la gestion des données du cargo. La mission concerne principalement la manipulation, le chargement et la raffinage de données dans un datawarehouse dédié au domaine du cargo, en particulier pour les filiales d’Air France et KLM (AF&KL). Le(la) candidat(e) retenu(e) aura pour responsabilité d’assister l’équipe dans la maintenance des flux de données existants ainsi que dans le développement de nouvelles fonctionnalités. Il/elle participera activement aux projets en cours, apportant son expertise pour corriger d’éventuels dysfonctionnements et enrichir les solutions existantes. La mission nécessite une capacité à comprendre les enjeux métiers liés au transport de fret aérien et à traduire ces exigences en solutions techniques robustes et efficaces. L’équipe cible est composée de 8 professionnels, ce qui implique une forte collaboration et une communication fluide pour assurer la cohérence et la qualité du livrable dans un contexte dynamique et en constante évolution.
Offre d'emploi
Appui AMOA GMAO Maximo
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
AMOA
Conduite du changement
Gestion de maintenance assistée par ordinateur (GMAO)
12 mois
45k-50k €
450-590 €
La Défense, Île-de-France
Contexte de la mission : Les centrales opérées utilisent l’outil de GMAO Maximo pour leurs activités du quotidien (Maintenance courante et préventive, Achats, gestion des stocks, gestion des permis de travail, consignation des équipements). L’outil intègre les spécificités demandées qui sont décrites dans les procédures émises par la maintenance, l’exploitation et le HSE. L’équipe qui gère l’outil Maximo est composée de deux personnes, une orientée métier qui fait partie de l’équipe Maintenance (à laquelle sera rattachée cette prestation) et une orientée SI avec une très forte compétence métier (cette personne à mis en place l’outil Maximo ainsi que tous les processus qui en font partie). Cette équipe travaille avec un intégrateur externe qui gère le run, la TMA et les évolutions de Maximo. L’équipe très Lean subit aujourd’hui une forte charge de part des sollicitations diverses : • Intégration des exigences HSE, contrôle interne, achat, … • Participation au programme One Asset • Déploiement des nouvelles versions sur site • Création de la documentation de formation • Suivi des développements de l’intégrateur • Sollicitation par des équipes de la compagnie pour des projets, type Digital for HSE Dans ce contexte de forte charge qui vise à perdurer, nous recherchons une ressource capable d’appuyer le Responsable Applicatif outils SI maintenance sur l’AMOA métier de Maximo. Objectifs de la mission : Les objectifs de la mission pourront évoluer en fonction des attendus sur la solution Maximo. Ils sont pour l’instant les suivants : • Maîtriser les processus métiers (Maintenance, Exploitation, HSE, Achat,…) et la solution Maximo actuellement en place ainsi que les workflows et applications associées (IziSafety, Oquali, …) pour apporter un support aux utilisateurs • Formaliser les expressions du besoin pour prendre en compte les besoins réglementaires, métier, issus des exigences de la compagnie, … • Suivre les développements avec l’interlocuteur IT de la solution • Recetter l’application lors des livraisons des corrections / évolutions • Mettre et maintenir à jour la documentation de formation • Organiser la gestion documentaire • Réaliser les déploiements sur site • Réaliser des extractions de données pour répondre aux différents besoin (Sollicitation externe, mise en place d’indicateurs, …) Les livrables attendus La liste suivante n’est pas exhaustive : • Support de formation au format PPT, Webinaire, Fiches méthodes, … • Spécifications fonctionnelles • Formation sur site • Reporting • Extraction de données Compétences demandées : · Adaptabilité : Confirmé · Rigoureux : Confirmé · Français : Confirmé · Anglais : Confirmé · Proactif : Confirmé · GMAO et de préférence Maximo : Expert · Autonome · SQL : Avancé · Bonne communication : Confirmé · AMOA : Expert · Conduite du changement : Expert
Offre d'emploi
DBA Exadata + Multi SGDB
OBJECTWARE
Publiée le
Exadata
Microsoft SQL Server
Oracle
3 ans
Île-de-France, France
Assurer l’ administration, l’exploitation et l’optimisation des bases de données critiques, avec une expertise forte sur Oracle Exadata , dans un environnement multi-SGBD , en garantissant performance, disponibilité, sécurité et continuité de service . Le DBA intervient aussi bien sur le RUN que sur le BUILD , dans des contextes de forte volumétrie et haute criticité . Intégration dans une équipe d'expert DBA RUN – Exploitation & MCO Assurer le Maintien en Condition Opérationnelle (MCO) des bases de données Supervision proactive des performances, de la disponibilité et de la capacité Gestion des incidents N2 / N3 et analyse des causes racines Suivi des SLA, reporting et amélioration continue Participation aux astreintes et interventions en heures non ouvrées si nécessaire Administration des environnements Oracle Exadata Optimisation des performances : SQL stockage Exadata Smart Scan Gestion : patching upgrades capacity planning Support aux équipes projets et applicatives sur les sujets de performance et d’architecture
Mission freelance
Lead QA / Lead Qualité Logicielle
Inventiv IT
Publiée le
AWS Cloud
DevOps
Gitlab
6 mois
480-620 €
Île-de-France, France
Contexte Dans un environnement Digital structuré et agile, l’objectif est de renforcer la pratique QA au niveau transverse : structurer la démarche qualité, homogénéiser les standards, améliorer la fiabilité en production et accélérer l’adoption des tests automatisés. Le poste implique une interaction forte avec les Delivery Leads, Product Owners, Tech Leads, équipes de développement, profils QA et équipes métiers (recette). En tant que Lead QA, vous définissez, diffusez et faites appliquer une stratégie d’assurance qualité commune. Vous accompagnez les dispositifs projets afin d’élever durablement le niveau de qualité, tant fonctionnelle que technique. Missions principalesPhase 1 – Consolidation sur un périmètre pilote Évaluer l’existant : pratiques QA, documentation, outillage, méthodologies et livrables Identifier les écarts, points de fragilité et risques qualité (non-régression, performance, batch, règles métier…) Proposer des améliorations concrètes du modèle de delivery et de la stratégie de recette Phase 2 – Déploiement transverse Définir et maintenir le cadre QA global : référentiels, templates, checklists, critères qualité, KPIs Contribuer à l’outillage commun (CI/CD, composants partagés, documentation, bootstrap) Accompagner les équipes (dev/tech/produit/métier) dans la mise en place de stratégies de test adaptées (cloud, progiciel, applications spécifiques…) Former et faire monter en compétences les équipes (coaching, acculturation, communautés de pratiques) Participer aux rituels projet (comités, reporting, démonstrations d’avancement) Contribuer à la qualification et à l’évaluation des profils QA Environnement technique Backend : Java / Node.js (TypeScript) Frontend : React (TypeScript) Bases de données : PostgreSQL, MongoDB Cloud : AWS (EKS) CI/CD & versionning : GitLab Monitoring : Datadog Authentification : Okta SSO / Active Directory Qualité & tests : Sonar, TestContainers, Trivy, Gitleaks, GitLab SAST, Gatling
Mission freelance
Data Engineer (1j/ semaine à Toulouse)
Signe +
Publiée le
Google Cloud Platform (GCP)
PowerBI
SQL
1 an
400-450 €
Toulouse, Occitanie
Contexte de la mission : Dans le cadre d’un renforcement d’équipe, notre client recherche un Data Engineer disposant d’une solide expertise en Business Objects (BO) , SQL , Power BI et GCP . La mission s’inscrit dans un environnement international nécessitant un bon niveau d’anglais (oral et écrit). Missions principales : Développer, maintenir et optimiser des rapports et univers sous Business Objects (BO) Concevoir et optimiser des requêtes complexes en SQL Développer des tableaux de bord et reportings interactifs sous Power BI Intervenir sur l’architecture et les traitements de données sur Google Cloud Platform (GCP)
Mission freelance
Data analyst risque de crédit
Freelance.com
Publiée le
Data analysis
Data quality
Python
1 an
550-650 €
Île-de-France, France
Pour le compte d’un acteur majeur du secteur bancaire , nous recherchons un Data Analyst Senior spécialisé en risque de crédit afin de renforcer les équipes risques dans un contexte de transformation data et réglementaire. Vous interviendrez sur des problématiques à fort enjeu business et réglementaire (pilotage du risque, modélisation, reporting prudentiel) en lien étroit avec les équipes Risk, Finance et IT. Description de la mission En tant que Data Analyst Risque de Crédit , vos principales responsabilités seront : Analyse et exploitation de données liées au risque de crédit (portefeuilles, défauts, provisions, notations internes) Conception et maintenance d’indicateurs de pilotage du risque (PD, LGD, EAD, coût du risque, etc.) Contribution aux travaux réglementaires et prudentiels (IFRS 9, stress tests, reporting risques) Développement et optimisation de traitements de données en Python et SQL Participation à l’industrialisation des analyses et à l’amélioration continue des outils data Collaboration avec les équipes Risk Management , Finance et IT
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
203 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois