L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 285 résultats.
Mission freelance
Data Engineer
DEVIK CONSULTING
Publiée le
API REST
Azure
Databricks
1 an
400-700 €
Paris, France
Description Pour le compte de notre client grand compte, Nous recherchons Data Engineer pour intervenir sur une plateforme Data stratégique, avec un rôle clé dans la gestion des flux de données et le maintien en condition opérationnelle. Tâches principales Assurer l’ingestion et l’orchestration des données (JIRA, CRM type Salesforce/Zoho, outils métiers) Centraliser et structurer les données au sein d’un Data Lake Développer et maintenir des pipelines de données (Python, API REST) Garantir la qualité, la sécurité et l’anonymisation des données Collaborer avec les équipes métiers pour faciliter le reporting Profil Recherché Expérience confirmée en Data Engineering Maîtrise de Python et des API REST Bonne connaissance de PostgreSQL Expérience sur Azure et Databricks Sensibilité à la data visualisation appréciée Rigueur, autonomie et esprit analytique Lieu : Paris
Offre d'emploi
Développeur Back-End Senior orienté IA (Python / Data / API) – H/F
SMARTPOINT
Publiée le
API REST
Machine Learning
MLOps
1 an
50k-60k €
400-500 €
Île-de-France, France
Dans le cadre du développement de solutions innovantes à forte valeur métier, nous recherchons un Développeur Back-End Senior orienté Intelligence Artificielle pour rejoindre une Dev Factory IA . Vous interviendrez sur la conception et le développement d’applications intégrant des composants data et intelligence artificielle , au sein d’équipes pluridisciplinaires composées de développeurs, data engineers, data scientists et experts métier . Votre mission consistera à concevoir, développer et industrialiser des services applicatifs et des briques d’intelligence artificielle , dans un environnement technique exigeant en matière de performance, scalabilité et fiabilité . Vos missions Développement Back-End et IA Concevoir et développer des API REST et/ou GraphQL robustes, sécurisées et performantes Implémenter des services d’exposition de modèles d’intelligence artificielle (inférence, scoring, prédictions) Développer des traitements data répondant aux besoins métiers Architecture applicative et data Participer à la définition des architectures applicatives et data/IA Concevoir des solutions scalables, modulaires et maintenables Appliquer les bonnes pratiques d’architecture logicielle (SOLID, séparation des responsabilités) Gestion des flux de données Traiter et exposer des données issues de différentes sources : bases de données relationnelles bases NoSQL APIs externes pipelines de données Garantir la qualité, la traçabilité et la performance des flux Intégration et mise en production des modèles IA Intégrer les modèles développés par les équipes data Mettre en production des services d’inférence Gérer les versions des modèles et suivre leurs performances Anticiper les problématiques de dérive des modèles Industrialisation et CI/CD Contribuer au dépôt GitLab Participer aux revues de code Mettre en place et maintenir des pipelines CI/CD Automatiser les processus de tests et de déploiement Qualité et tests Développer des tests unitaires, d’intégration et de performance Garantir la fiabilité et la stabilité des services applicatifs et des composants IA Sécurité applicative et data Mettre en œuvre les bonnes pratiques de sécurité : authentification autorisation chiffrement protection des données sensibles Collaboration agile Participer aux rituels Scrum Collaborer avec les équipes data, front-end, produit et DevOps Documentation et amélioration continue Documenter les architectures, APIs, pipelines data et processus de déploiement Contribuer à la veille technologique et à l’amélioration des pratiques de développement
Mission freelance
Architecte SI / Architecte d'entreprise : delivery Data & IA et exploitabilité
INSYCO
Publiée le
API
Architecture
Backlog management
18 mois
600-750 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Architecte SI / Architecte d'entreprise senior spécialisé delivery Data & IA et exploitabilité Nous étudions - prioritairement - les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/ARC/5304 dans l'objet de votre message Dans le cadre de programmes stratégiques, notre client recherche un Architecte SI / Architecte d'entreprise senior pour accompagner sa direction IT transverse. Les fondations techniques étant déjà en place, l'enjeu n'est plus de concevoir mais de : Structurer des processus opérationnels clairs Accompagner leur mise en oeuvre réelle sur le terrain Garantir des résultats concrets et durables La prestation consiste à définir, structurer et déployer les processus permettant de sécuriser les phases de delivery des sujets Data & IA et la réussite des mises en exploitation (24/7) des projets stratégiques, tout en accompagnant opérationnellement les équipes pour garantir leur adoption et leur efficacité. Vision & architecture Garantir la cohérence globale entre stratégie métier, architectures SI, plateformes et solutions Data et IA, Clouds, et contraintes d'exploitation Traduire les besoins métiers en solutions structurées Piloter les trajectoires SI (cloud, data, API, microservices) Exploitabilité & mise en service des projets stratégiques Garantir des mises en production fiables, maîtrisées et industrialisées. Processus à structurer (référentiel ITIL) Processus d'enrichissement de la CMDB (outil de gestion des actifs IT) Audit et optimisation des processus : Release Management, Change Management, Incident & Problem Management Audit et optimisation des critères de Go Live, des exigences d'exploitabilité dès la conception (Shift Left), des dispositifs de supervision, monitoring et gestion des alertes Structuration des environnements (DEV / PREPROD / PROD) Documentation et organisation du RUN Appui direct aux équipes projets sur les phases de mise en production Sécurisation des Go Live Coordination BUILD / RUN Mise en place des rituels d'exploitation Accompagnement des équipes RUN Approche orientée fiabilité, fluidité et industrialisation Data / IA - Delivery Définition d'un processus end-to-end Data / IA pour réussir le delivery des plateformes et des solutions techniques Suivi des : Backlog Data / IA, gouvernance des usages, critères de priorisation (valeur, ROI, faisabilité), standards (qualité des données, cycle de vie des modèles, monitoring) Mise en place des rituels de pilotage Appui à l'industrialisation des premiers use cases Approche pragmatique, orientée delivery et adoption rapide
Offre d'emploi
Data Analytics Engineer Senior F/H
ASTRELYA
Publiée le
Apache Airflow
BigQuery
CI/CD
Paris, France
Astrelya est un cabinet de conseil franco‑suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 expert passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission : En tant que Data Analytics Engineer Senior, vous interviendrez au cœur des enjeux de modélisation analytique, de structuration de data products et de valorisation des données dans un contexte Risques (liquidité). Vous jouerez un rôle clé dans la transformation des données transactionnelles en modèles analytiques robustes, performants et exploitables par les équipes Risques, Finance et Data. Concrètement, vous allez : · Dé‑normaliser les transactions et les transformer en modèle en étoile adapté aux usages analytiques. · Concevoir et structurer un data product permettant le partitionnement et le clustering selon les axes d’analyse métiers. · Collaborer étroitement avec les équipes Risques pour comprendre les enjeux de liquidité, les indicateurs clés et les contraintes réglementaires. · Mettre en place des pipelines de transformation fiables, documentés et industrialisés. · Garantir la qualité, la performance et la gouvernance des données exposées. · Contribuer à l’amélioration continue des workflows DataOps et des bonnes pratiques d’ingénierie analytique. · Participer à la définition des standards de modélisation et d’architecture analytique au sein de l’équipe. Votre futur environnement technique : • Google Cloud Platform • BigQuery – entrepôt de données & moteur analytique • DBT – transformation & modélisation analytique • Airflow – orchestration • DataProc – traitements distribués • Cloud SQL – stockage & bases relationnelles • DataOps, CI/CD, bonnes pratiques d’ingénierie analytique
Mission freelance
Data Gouv Senior
Nicholson SAS
Publiée le
Confluence
Data analysis
Data Engineering
5 mois
550 €
Hauts-de-Seine, France
Nous recherchons pour notre client un Data Gouv Senior capable de fédérer et de piloter des instances : Rédaction et mise à jour des documents de gouvernance Data/IA (principes, référentiels, standards). Réorganisation, harmonisation et traduction (FR/EN) du fonds documentaire. Organisation des comités CDO / Data IA : invitations, ordres du jour, supports, comptes-rendus. Production des supports de communication ((intranet client), Teams, PowerPoint) Organisation d’évènements de la filière : plénières, challenges Data Science, ateliers. Collecte et consolidation des indicateurs mensuels de la filière. Rédaction du reporting mensuel d’activité. Compétences : Gouvernance des données Pilotage transverse / PMO et organisation de comités. Excellentes compétences rédactionnelles en français et bonne maîtrise de l’anglais. Communication interne, storytelling, animation de communautés. Maîtrise Microsoft 365 (PowerPoint, Excel, Teams, SharePoint). Connaissance de Confluence, Jira. Autonomie, rigueur, sens du détail et excellent relationnel.
Offre d'emploi
Buisness analyst / DATA ( trade finance ) - Denodo
AVA2I
Publiée le
Data quality
Microsoft Power BI
1 an
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation data au sein du métier Trade Finance, vous interviendrez sur la mise en place d’un Buisness Analyste/ DATA basé sur une plateforme de virtualisation de données. L’objectif est de : Centraliser et fiabiliser les données métiers Modéliser la donnée en fonction des besoins opérationnels Distribuer la donnée via API, reporting et applications Garantir la qualité et la gouvernance des données 🛠️ Missions 🔍 Analyse & cadrage Recueillir et analyser les besoins métier (ateliers, cadrage) Rédiger les spécifications fonctionnelles et user stories 🧠 Data & modélisation Analyser les modèles de données existants Mapper et intégrer les données (data virtualisation / denodo VQL) Participer à la construction du Data Product 🤝 Support & coordination Assurer un support fonctionnel auprès des équipes de développement Faire l’interface entre les équipes IT et les métiers 📊 Reporting & BI Concevoir et développer des dashboards et rapports ✅ Data Quality & Gouvernance Définir et implémenter des règles de qualité des données Contribuer à la gouvernance des données 🧩 Compétences fonctionnelles Bonne compréhension des besoins métier Une connaissance du Trade Finance est un plus 🌟 Soft skills Rigueur et esprit analytique Curiosité et proactivité Bon relationnel et communication ➕ Atouts Expérience en environnement bancaire ou financier Connaissance d’un progiciel Trade Finance (type TI+) Expérience sur des projets data complexes
Offre d'emploi
Expert Data Engineer / DevOps
R&S TELECOM
Publiée le
Apache Kafka
Java
Kubernetes
6 mois
40k-45k €
400-500 €
Bordeaux, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre d’un programme structurant de modernisation du système d’information , nous recherchons un profil Data Engineer / DevOps senior pour renforcer une équipe existante. La mission s’inscrit au cœur du SI cible , au service de plusieurs applications critiques orientées data, intégration et services temps réel. Le poste vise à industrialiser les chaînes DevOps et à structurer les flux Data Lake dans un environnement cloud native, fortement automatisé et orienté open source . Démarrage souhaité : mai / juin Localisation : Rive gauche bordeaux, nécessite un véhicule Objectifs de la mission Le rôle est double : DevOps / Plateforme Industrialisation et sécurisation des chaînes d’intégration et de déploiement Standardisation des pratiques GitOps sur un socle Kubernetes multi‑environnements Renforcement de l’automatisation et de l’observabilité des plateformes applicatives et data Data / Streaming Accompagnement à la conception et à la standardisation des flux data temps réel Structuration d’un Data Lake orienté streaming et lakehouse Garantie de la performance, de la résilience et de la maintenabilité des flux Domaines d’intervention & compétences clés Socle Kubernetes & DevOps Orchestration : Kubernetes (Namespaces, Ingress, RBAC) GitOps : GitLab CI, Helm, ArgoCD Observabilité : Grafana, Prometheus, Loki, Tempo Sécurité CI/CD : SAST, DAST, Trivy Environnements : OpenStack Écosystème Data & Data Lake Streaming & CDC : Kafka, Debezium Processing : Spark SQL, Airflow Lakehouse : Apache Iceberg Query Engine : Trino (PrestoSQL) Stockage objet : Ceph (ou équivalent) Micro‑services & APIs Runtimes : Java / Quarkus, Python API Management : Kong Protocoles : MQTT (atout) Optimisation des performances applicatives et data Livrables attendus (exemples) Socle & automatisation Mise en place d’architectures ArgoCD (Application of Applications) Catalogue de Charts Helm industrialisés Bibliothèque de pipelines GitLab CI/CD standardisés et sécurisés Data & Streaming Provisionnement automatisé des clusters Kafka et connecteurs Debezium Configuration optimisée de Trino sur stockage objet Mise en place des DAGs Airflow pour l’orchestration des traitements Documentation & MCO Dashboards de supervision avancés Rédaction du Dossier d’Architecture Technique (DAT) Rédaction de Runbooks MCO / PRA Définition de standards techniques et bonnes pratiques cloud native Profil recherché Expérience confirmée (5 à 8 ans minimum) en DevOps, Data Engineer ou Platform Engineer Très bonne maîtrise de Kubernetes et des pratiques GitOps Expérience concrète sur des plateformes Kafka et Data Lake À l’aise dans des contextes SI complexes et structurants Capacité à travailler en collaboration étroite avec équipes de développement, architectes et chefs de projet Autonomie, rigueur, sens de l’industrialisation
Offre d'emploi
Data Engineer spécialisé·e Informatica PowerCenter
ATTINEOS
Publiée le
Informatica
2 ans
Rouen, Normandie
Dans un contexte de projets stratégiques autour de la donnée, nous recherchons un·e Data Engineer spécialisé·e Informatica PowerCenter pour renforcer une équipe agile dynamique. Vous interviendrez sur la création et l’évolution de traitements data et d’applications, dans des environnements variés couvrant plusieurs domaines métiers (assurance IARD, santé, marché professionnel…). Vous participerez à l’ensemble du cycle de vie des projets : de la conception jusqu’à la maintenance en conditions opérationnelles. Vos missions : Rédiger les spécifications techniques détaillées Concevoir, développer et maintenir des traitements d’intégration de données Garantir la qualité, la performance, la sécurité et les délais de livraison Réaliser les tests unitaires et d’intégration Participer aux mises en production et aux déploiements Gérer les incidents et les demandes de changement Mener des analyses d’impact sur les pipelines de données existants Produire la documentation technique et réglementaire Environnement technique : Informatica PowerCenter 10.x, PowerExchange Navigator, SQL Server / SQL, Environnements Mainframe (apprécié), COBOL (lecture de copybooks), CI/CD, JIRA, Confluence
Offre d'emploi
Tech-Lead Data Quality, IA, Azure
Management Square
Publiée le
Azure Synapse
Data quality
IA
1 an
57k-62k €
500-600 €
Paris, France
Activités principales : • Présenter des retours d'expérience sur la gestion de la qualité des données sur les plateformes Azure et les bonnes pratiques de gestion de la qualité sur les plateformes Azure • Réaliser un audit de la gestion de la qualité des données sur les plateformes et prendre connaissance des contrôles de qualité actuellement disponibles et des objectifs à court et moyen terme • Définir le champ des possibles sur la base des composants actuellement disponibles sur la plateforme ou standards sur Azure. • Présenter les apports de l'IA dans le cadre d'une pratique de contrôle de qualité des données • Présenter la stratégie de déploiement de la qualité des données pour les prochains mois • Déployer les contrôles de qualité existants ainsi que ceux identifiés par le CDO • Assurer le passage de connaissance vers les équipes internes
Offre d'emploi
Data Scientist Senior — Expert IA Générative
Craftman data
Publiée le
AWS Cloud
IA Générative
Large Language Model (LLM)
12 mois
Seine-Saint-Denis, France
Data Scientist Senior — Expert IA Générative Minimum 5 ans en Data Science, dont 2+ ans en IA Générative AWS (GCP accepté si expertise confirmée) Mon client recherche un expert Data Scientist avec une forte orientation IA Générative, capable d'agir à la fois comme référent technique et comme ambassadeur de l'IA auprès des parties prenantes métiers et IT. Ce profil doit être un véritable catalyseur du changement, prêt à faire bouger les lignes et à ancrer une culture de l'IA au sein du groupe. 1. Expertise IA Générative & Data Science ▸ Définir et appliquer les méthodologies, bonnes pratiques et standards liés à l'IA Générative (LLM, RAG, fine-tuning, prompt engineering, agents autonomes…) ▸ Concevoir, développer et déployer des modèles et solutions d'IA Gen adaptés aux enjeux d'EDF ▸ Assurer une veille technologique active et identifier les opportunités d'innovation ▸ Garantir la qualité, la robustesse et l'éthique des approches IA mises en œuvre 2. Identification & Portage des Cas d'Usage ▸ Explorer et qualifier de nouveaux cas d'usage IA Générative, tant pour les métiers qu'en interne à la DSIN ▸ Challengeur les approches IA existantes et proposer des alternatives plus performantes ou innovantes ▸ Construire des preuves de concept (PoC) et accompagner le passage à l'échelle ▸ Prioriser les cas d'usage selon leur faisabilité technique et leur valeur business 3. Animation & Communication ▸ Interagir avec les acteurs clés (Directions métiers, DSI, Comité de Direction) pour présenter les travaux et défendre les orientations IA ▸ Animer des ateliers de co-construction et des sessions de sensibilisation à l'IA Générative ▸ Vulgariser des concepts techniques complexes pour des audiences non spécialistes ▸ Participer activement aux instances de gouvernance IA du groupe 4. Transformation & Acculturation ▸ Impulser une dynamique de transformation autour de l'IA au sein de la DSIN et de ses partenaires ▸ Contribuer à la construction d'une feuille de route IA ambitieuse et réaliste ▸ Mentorer et monter en compétences les équipes internes sur les sujets IA Gen ▸ Être force de proposition pour faire évoluer les pratiques et les organisations PROFIL RECHERCHÉ Compétences techniques indispensables ▸ Maîtrise avancée des techniques de Data Science : machine learning, deep learning, NLP, statistiques ▸ Expertise confirmée en IA Générative : LLM (GPT, Llama, Mistral…), RAG, agents, orchestration (LangChain, LlamaIndex…) ▸ Expérience sur AWS (SageMaker, Bedrock, Lambda…) — GCP (Vertex AI, BigQuery ML) accepté ▸ Maîtrise des langages Python et des frameworks IA/ML (PyTorch, HuggingFace, scikit-learn…) ▸ Connaissance des pratiques MLOps et de déploiement en production (CI/CD, monitoring de modèles) Savoir-être & posture attendus ▸ Excellentes qualités de communication orale et écrite, capacité à vulgariser et convaincre ▸ Leadership d'influence : capacité à embarquer sans autorité hiérarchique ▸ Curiosité intellectuelle, esprit d'initiative et goût pour l'innovation ▸ Appétence forte pour le changement et volonté de faire évoluer les pratiques dans un grand groupe ▸ Rigueur, autonomie et capacité à gérer plusieurs sujets en parallèle Expériences valorisées ▸ Expériences dans des secteurs régulés ou à forte contrainte (énergie, industrie, finance, santé…) ▸ Participation à des projets IA d'envergure avec mise en production effective ▸ Contribution à des communautés IA (publications, conférences, open source…)
Offre d'emploi
Data Scientist ‒ Fraud & Payment Analytics
Ela Technology
Publiée le
Machine Learning
Python
SQL
6 mois
Paris, France
Dans le cadre du renforcement des dispositifs de sécurisation des paiements électroniques et de la lutte contre la fraude, il est recherché un Data Scientist capable d’intervenir sur des problématiques de détection de fraude bancaire, scoring et authentification forte, analyse massive de données transactionnelles et optimisation de modèles prédictifs en environnement critique. Le poste s’inscrit dans un contexte à forts enjeux réglementaires et opérationnels, avec des traitements en temps réel et des volumes de données importants. Le contexte fonctionnel couvre : Paiement électronique & cartes bancaires Lutte contre la fraude Authentification forte Conformité réglementaire Analyse de risques transactionnels 🧩 MissionsAnalyse & Modélisation Analyse exploratoire et statistique de données transactionnelles massives Conception et amélioration de modèles de Machine Learning pour la détection de fraude Feature engineering sur données temporelles et comportementales Optimisation des performances des modèles (précision, recall, stabilité) Industrialisation & Production Déploiement et suivi de modèles de scoring en environnement de production Monitoring des performances des modèles (drift, précision, recall) Automatisation des traitements et du reporting analytique Participation à l’amélioration continue des pipelines data Collaboration métier Interaction avec les équipes sécurité, fraude et conformité Traduction des besoins métier en solutions data Création de tableaux de bord et visualisations exploitables par les métiers Documentation et présentation des résultats 🛠️ Environnements techniquesLangages & Data Science Python R SQL Machine Learning & IA Scikit-learn XGBoost / LightGBM / Random Forest PyTorch (optionnel) Approches RAG / NLP (bonus) Data Engineering & Big Data PySpark Écosystème Hadoop Traitements batch et temps réel Data & Visualisation Power BI Pandas NumPy Excel avancé Environnements complémentaires Elasticsearch PostgreSQL API Data / JSON Industrialisation de modèles ML Outils métiers (paiement / fraude) Plateformes de scoring temps réel (type Feedzai ou équivalent) Outils d’authentification forte Analyse comportementale fraude
Mission freelance
Architecte Réseau Senior
SKILL EXPERT
Publiée le
Android
Azure
DHCP (Dynamic Host Configuration Protocol)
6 mois
600 €
Paris, France
Missions Pour l'un de nos clients, vous travaillerez sur une mission à haute valeur en tant qu'Architecte Réseau Senior. En étroite collaboration avec vos homologues, vous soutiendrez et conseillerez notre client dans la gestion du cycle de vie de leur infrastructure actuelle et contribuerez à l'évolution de leurs schémas directeurs opérationnels. L'objectif principal de cette mission de 6 mois est de livrer le plan directeur de conception de l'infrastructure pour les opérations des sites mondiaux (usines et entrepôts). Vous serez chargé d'auditer les architectures actuellement déployées afin de fournir des recommandations concrètes d'optimisation de la conception. Les enjeux clés incluent la rationalisation des services partagés (DHCP) et la consolidation des SSID Wi-Fi.
Mission freelance
Responsables d'Application INFOLOG- Expert (>10 ans) F/H
SMARTPOINT
Publiée le
Infolog WMS
6 mois
400-550 €
Châtillon, Île-de-France
Au sein de la Direction Etudes (DSI AI) Renfort de l'équipe de responsables d'applications INFOLOG actuelle. Contexte : Près de 50 entrepôts opérés / Projet de passage en SaaS pour 2 pilotes en 2027. Le candidat aura donc à intervenir à la fois sur le RUN et le BUILD (MEV / PRJ). En lien avec les autres RA : 1.Gestion de projets et engagement : oContribuer aux évolutions fonctionnelles et techniques, en veillant au respect des engagements qualité, délais et budgets. oGarantir l’application des normes, méthodes et outils définis par le Groupement, pour assurer une intégration homogène et performante de chaque base logistique au sein du système. 2.Maintenance applicative : oAssurer et coordonner les activités de maintenance corrective et évolutive de l’application Infolog. oDiagnostiquer et piloter les corrections des dysfonctionnements applicatifs et des flux interfaces. 3.Maintenance évolutive : oIdentifier et mettre en œuvre des évolutions fonctionnelles, en apportant de la valeur ajoutée au WMS. oRédiger et maintenir la documentation technique et fonctionnelle des évolutions et optimisations liées au projet de déploiement. 4.Relation avec les parties prenantes : oÊtre l’interlocuteur privilégié du Métier et assurer l’interface avec les contributeurs internes et externes :-Notamment dans le cadre PRJ / MEV (chefs de projet, experts Métier, Exploitants, architecture, sécurité, réseau, équipes de développement, testeurs, éditeurs partenaires). oParticiper aux phases d’études et de cadrage des projets, incluant l’analyse des besoins, la rédaction et la gestion des contrats d’interface entre les différents systèmes. Qualifications et compétences recherchées : Profil technique et fonctionnel :-Une expérience ou des notions dans les domaines suivants seront fortement appréciées : oAPI et webservices, manipulation de fichiers XML et gestion d’interfaces inter-applicatifs. oConnaissances en normes GS1, bases de données SQL, protocoles de communication (MFT, MQ-Series, API, ETL) et environnements Windows, Linux, et Oracle.-Connaissance du WMS Infolog et maîtrise de sa base de données sont des pré requis pour ce poste. Formation et expérience :-Diplôme en informatique ou domaine similaire, avec une expérience significative en tant que Responsable Applicatif, idéalement dans la logistique ou le transport. Savoir-être et savoir-faire :-Solides capacités relationnelles pour collaborer avec les métiers (MOA, utilisateurs finaux) et les équipes techniques internes/externes.-Aptitudes d’animation : savoir communiquer clairement, animer des comités de pilotage avec décideurs et éditeurs. Esprit d’analyse, de synthèse et force de proposition, avec d’excellentes qualités rédactionnelles. CONCEPTION D'ÉVOLUTION DU SYSTÈME D'INFORMATION Est l'interlocuteur des métiers / DOSI lors de la vie courante des systèmes Est responsable de l'évolution des applications dont il a la charge Gère les demandes, les priorise, et gère les lots d'évolutions de ses applications en lien avec le Responsable SI métier et le Responsable de Domaine/Pôle Participe aux cadrages et projets d'adaptation et d'évolution du SI Effectue l'analyse fonctionnelle des besoins et détermine les impacts sur les interfaces avec les produits environnants dans le système d'information de l'entreprise Suit les roadmaps de l'Editeur, en analyse les impacts sur son périmètre et anticipe et pilote les montées de versions MISE EN ŒUVRE DU SYSTÈME D'INFORMATION Conduit, dans le cadre des projets, l'évolution cohérente de son système depuis la conception jusqu'à la mise en service Réalise les spécifications de ses applications S'assure de la qualité attendue des développements réalisés Contribue à la stratégie de recette des projets sur son périmètre Est responsable de la définition, avec le métier/DOSI et l'équipe Test Factory, des plans de tests nécessaires à la recette de ses applications Pilote les livraisons de corrections en cas d'anomalies détectées sur ses applications QUALITÉ DU SYSTÈME D'INFORMATION (PERFORMANCE, COHÉRENCE, COÛT, DÉLAI?) Applique les normes, méthodes et outils de référence définis au sein du Domaine ou de la Direction de référence Est le garant du maintien des connaissances fonctionnelles et techniques nécessaires à la pérennité de ses applications Est responsable de la gestion documentaire des applications S'assure de la production et du suivi des indicateurs de performances de ses applications en lien avec le Responsable de Domaine/Pôle, le Chargé de Pilotage SI S'assure que les SLA définis contractuellement avec l'éditeur et les Domaines sont suivis et respectés Évalue le niveau de service des applications de son périmètre et s'assure de la mise en place les plans d'actions d'amélioration lorsque nécessaire Est responsable des règles de fonctionnement et d'utilisation des applications COMMUNICATION Assiste et conseille sur l'utilisation du système applicatif dont il a la charge Est l'interlocuteur privilégié de la production informatique pour son périmètre
Mission freelance
PROJECT MANAGER SENIOR
Wana Accompagnement Solutions
Publiée le
ERP
GxP
Logistique
6 mois
550-650 €
Marseille, Provence-Alpes-Côte d'Azur
1. Contexte et finalité du poste Dans un environnement multi projets, international et à forts enjeux business, le/la Project Manager Senior intervient sur des projets clés. Son rôle n’est pas uniquement d’être un chef de projet supplémentaire, mais un cadre senior, capable de : Piloter des projets liés au Métier de la Logistique Pharmaceutique, Sécuriser l’exécution des projets en cours, Apporter une vision consolidée, claire et factuelle de l’activité projets à destination du management Etre l'interface avec le Client tout au long du projet 2. Mission principale Participer au développement de projet à destination des clients avec une dimension Logistique et Finance (order to cash) : la maîtrise des délais, coûts et risques, la qualité du reporting et de la communication managériale, la cohérence méthodologique et le respect du cycle de vie logiciel, la coordination efficace avec les parties prenantes internationales (UK, NL, ESP, PORTUGAL…). 3. Responsabilités clés 3.1. Pilotage de projet Piloter des projets importants Piloter les équipes techniques (développeurs PL/SQL) Avoir une approche factuelle et orientée solution 3.2. Gouvernance, méthodes et cycle de vie logiciel Veiller à l’application cohérente des méthodologies projet (cycle en V, staged-gate, gouvernance de jalons) S’assurer de la qualité des livrables clés aux différentes étapes du cycle de vie logiciel (cadrage, conception, build, tests, déploiement) 3.3. Reporting, visibilité et communication managériale Produire un reporting clair, synthétique et orienté décision, à destination des parties prenantes Consolider la vision portefeuille : avancement, capacité, risques, priorités Contribuer à la mise à jour des roadmaps du service Participer à la planification des capacités et à l’anticipation des besoins futurs (ressources, compétences). La mission ne convient pas à un consultant ne souhaitant pas travailler sur site auprès des équipes à Marseille.
Mission freelance
Consultant Réseau Senior
HAYS France
Publiée le
Automatisation
Fortinet
SD-WAN
3 ans
100-420 €
Lille, Hauts-de-France
Intervenant entre autres sur les plateformes d'interconnexion WAN du groupe , la mission consiste à : - analyser des infrastructures réseau de clients internes et proposer des plans d'actions structurées pour faire évoluer une architecture - participer aux opérations d'évolution d'un backbone avec routage dynamique BGP/OSPF/MPLS - mettre en oeuvre des interconnexions (peering BGP, VPN ipsec...) avec définition de mode opératoire/rollback - déployer pour des clients internes des solutions de connectivité réseau SDWAN (Fortinet, Palo Alto...) - définir et mesurer des métriques réseaux (par exemple, mesure de l'usage et de la performance de nos services) à diffuser à nos clients - gérer des changements réseaux divers (gestion de flux, upgrade de liaisons, migration de VPN, activation d'IPS...) - écrire des guidelines de configuration pour bien utiliser une solution technique - automatiser des tâches récurrentes - participer au maintien en condition opérationnelle (upgrade routeurs, renouvellement d'équipements FW...), et à l'amélioration continue (correction de vulnérabilités de sécurité, définition de procédures d'exploitation, amélioration du monitoring de nos infrastructures...) - assurer l'interconnexion fluide entre les infrastructures on-premise et l’environnement Google Cloud Platform (Cloud Interconnect, VPC Peering, Shared VPC) - industrialiser le réseau en développant des scripts Python pour automatiser les tâches récurrentes, le provisionnement des ressources et la gestion des configurations (Infrastructure as Code) - participer à la gestion d'incidents (routage, firewalling...), analyse de problèmes de performance, gestion des demandes de changements mineurs (un jour de RUN par semaine minimum) Les opérations et interventions critiques sont réalisées de nuit (0h-4h) Il y a des astreintes à la semaine, quand le périmètre est maîtrisé, toutes les 5 semaines
Offre d'emploi
Administrateur Systèmes Storage Mainframe (H/F)
virtualbrains
Publiée le
SMS
1 an
40k-45k €
400-550 €
Île-de-France, France
Dans le cadre d’un projet stratégique au sein d’un grand environnement bancaire/industriel, nous recherchons un Administrateur Storage Mainframe expérimenté pour intervenir sur des plateformes critiques à très forte volumétrie. Vous rejoignez une équipe spécialisée en environnement z/OS, avec des enjeux élevés de disponibilité, de performance et de sécurisation des données. Vos missions Assurer le support N2/N3 sur les problématiques liées au stockage et à la disponibilité des fichiers applicatifs Garantir le maintien en conditions opérationnelles (MCO) des infrastructures de stockage et de sauvegarde (vision logique) Administrer et piloter les solutions de gestion de stockage sur environnement mainframe Gérer les processus de migration et d’optimisation des données Participer aux projets d’évolution des infrastructures (capacité, robotisation, performance) Réaliser des analyses techniques de l’existant et proposer des axes d’amélioration Produire la documentation technique et assurer le reporting des activités
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5285 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois