Trouvez votre prochaine offre d’emploi ou de mission freelance MIG6
Votre recherche renvoie 432 résultats.
Offre d'emploi
Ingénieur Système Powersell / Citrix
MGI Consultants
Publiée le
Python
45k-65k €
Paris, France
1. Présentation de la mission Intitulé du poste : Ingénieur de Production Senior – Automatisation & Cloud Privatif Contexte : Dans le cadre de la refonte des offres Citrix sur un nouvel orchestrateur, le candidat aura pour mission de scripter les APIs et de réaliser les développements nécessaires à cette transformation. Il intégrera un collectif d'experts Citrix, en collaboration directe avec les équipes internes du Groupe. 2. Informations Contractuelles & Logistiques Lieu de réalisation : Paris Rythme de travail : Temps plein (100%) Présence sur site : 3 jours par semaine 3. Missions et Responsabilités Développement & Automatisation : Scripting d'APIs et développement d'outils d'automatisation pour le Cloud privatif (Terraform, Ansible). Ingénierie de Production : Intégration de nouvelles applications, packaging des composants, et définition des règles de gestion des systèmes d'exploitation. Tests Techniques & Recette : Conception de plans de tests, préparation des infrastructures de test, réalisation des diagnostics et rédaction des rapports de GO/NOGO pour la mise en production. Optimisation (FinOps & Performance) : Proposer des solutions pour réduire les coûts et améliorer les performances globales. Sécurité (DevSecOps) : Accompagner le développement selon les meilleures pratiques de sécurité et assurer une veille constante sur les menaces. MCO : Maintien en condition opérationnelle des infrastructures liées aux postes utilisateurs (Télédistribution, Messagerie, Annuaires). 4. Profil Recherché Niveau d'expérience : confirmé Compétences techniques impératives : Scripting PowerShell : Niveau Expert Scripting Python : Niveau Expert Citrix CVAD (Citrix Virtual Apps and Desktops) : Niveau Expert Outils souhaités : Terraform, Ansible (contexte Cloud/Orchestration). Langues : Anglais professionnel impératif. 5. Remarques Le candidat doit être un expert du scripting capable d'interagir avec des infrastructures complexes via du code, comprend les contraintes de la production (diagnostics de dysfonctionnement, packaging, homologation, MCO).
Offre d'emploi
Consultant Data Governance – Asset Management (H/F)
Deodis
Publiée le
Data governance
1 an
40k-60k €
580-700 €
Île-de-France, France
Dans le cadre d’un programme de transformation data au sein d’un environnement exigeant, nous recherchons un Consultant Data Governance pour intervenir sur des problématiques de gouvernance, qualité et traçabilité des données. La mission s’inscrit dans un contexte de migration et d’intégration de systèmes , nécessitant une forte coordination entre les équipes métier et IT. Recueillir et formaliser les besoins métier liés aux données Animer des ateliers avec les équipes métier et IT Mettre en place et maintenir la traçabilité des données (data lineage, mapping des flux) Concevoir et documenter les flux de données de bout en bout Définir et piloter la roadmap de livraison des cas d’usage data Identifier les dépendances, risques et contraintes de livraison Participer aux ateliers de conception fonctionnelle et technique Gérer et suivre le backlog data Mettre en œuvre les bonnes pratiques de gouvernance et de qualité des données Produire la documentation (dictionnaires de données, processus, reporting, KPIs) Assurer le suivi des risques et des plans d’actions Contribuer à la conduite du changement et à l’adoption des standards data
Mission freelance
Profil RDARR, data quality, data lineage, data governance
Mon Consultant Indépendant
Publiée le
Data management
6 mois
480-520 €
Paris, France
Pour le compte de l’un de nos clients du secteur bancaire , nous recherchons un consultant spécialisé en data management réglementaire , avec une expertise sur les dispositifs RDARR et BCBS 239 . Le consultant interviendra sur les sujets de data quality, data lineage et data governance , en contribuant à la mise en conformité et à l’amélioration des dispositifs de gestion des données. Il participera à l’analyse des processus, à la définition des règles de gouvernance et au suivi des exigences réglementaires. Le poste requiert une solide connaissance des environnements bancaires et des enjeux liés à la qualité et à la traçabilité des données.
Mission freelance
Data Model Architect
Phaidon London- Glocomms
Publiée le
Architecture
Data governance
Data quality
6 mois
400-550 €
Arcueil, Île-de-France
Concevoir le modèle de données Salesforce (objets, champs, relations) pour l'ensemble des flux de travail du projet. Définir et appliquer les conventions de nommage et les normes de modélisation. Examiner et valider toutes les demandes de nouveaux objets ou champs personnalisés. Gérer l'évolution du modèle pour l'ensemble des flux de travail, en garantissant la rétrocompatibilité. Concevoir la stratégie de migration et de chargement des données pour les jeux de données existants. Garantir la pleine compatibilité du modèle de données avec Agentforce. Documenter et maintenir le dictionnaire de données du projet. Accompagner les équipes concernant la gestion des hiérarchies, les objets à volume élevé et les structures de comptes complexes.
Mission freelance
Senior Data Engineer Palantir
Orcan Intelligence
Publiée le
Big Data
Databricks
9 mois
600-800 €
Paris, France
Orcan Intelligence recherche pour l'un de ses clients dans le secteur de la Finance un consultant Data Engineer senior sur les sujets Palantir . Voici les livrables attendus : Développer des pipelines de données pour nos fondations dans Palantir Foundry Construire, maintenir et documenter des pipelines, notamment pour l'intégration de données dans notre modèle analytique (architecture medallion). Etablir des Contrôles de qualité, tests,........ etc
Mission freelance
Signe +/ Recherche un(e) Consultant(e) SAP PP - E PPDS - Toulouse
Signe +
Publiée le
SAP PP
5 mois
Toulouse, Occitanie
Bonjour, Nous recherchons un(e) consultant(e) SAP PP EPPDS pour une mission sur Toulouse entre 08/2026 et 12/2026. Contexte : Programme de transformation SAP S/4/H Profil: -Confirmé(e) /Expert(e) SAP PP EPPDS -Au moins une expérience significative sur un projet S/4/H -Le + serait une expérience dans le secteur Défense/Aéronautique -Anglais courant professionnel (à l'oral et à l'écrit) Démarrage : 08/2026 Durée : 5 mois Couverture : Temps plein Hybride : 3j/semaine sur Toulouse + remote TJM : Selon profils
Mission freelance
Consultant(e) SAP FICO - Data Migration S/4 - IDF
Signe +
Publiée le
SAP FICO
3 mois
550-700 €
Le Plessis-Robinson, Île-de-France
Dans le cadre d’un programme de transformation SAP, notre client recherche un Consultant SAP FI/CO pour intervenir sur un projet de migration de données ECC vers S/4HANA. Le consultant intégrera l’équipe technico-fonctionnelle Data Migration et interviendra principalement sur la définition et la formalisation des règles de transformation et de mapping des données Finance et Controlling. Missions Analyser les modèles de données FI/CO entre ECC et S/4HANA . Définir et documenter les règles de transformation, de mapping et de nettoyage des données . Participer aux ateliers avec les équipes métiers Finance, Controlling et gestion de projet . Contribuer à la conception des objets de migration et des templates de reprise de données . Accompagner les équipes Data Migration lors des phases de migration et de tests (Unit Tests, SIT, UAT) . Identifier les écarts, risques et impacts liés à la migration et garantir la cohérence des données dans S/4HANA. 📍 Localisation : 92 🏢 Présence : 3 jours sur site / 2 jours télétravail 📅 Démarrage : ASAP ⏳ Durée : Mission longue (programme stratégique S/4HANA) 💰 TJM : 600-700 € selon expérience 🌍 Langue : Anglais intermédiaire requis
Offre d'emploi
Administrateur Cloudera CDP & CDP Data Services (environnement OpenShift) TJM MAX 500
Craftman data
Publiée le
Cloudera
Hadoop
Kubernetes
8 mois
40k-45k €
400-550 €
Paris, France
Description du poste Dans le cadre du développement de ses plateformes data, l’entreprise recherche un administrateur spécialisé sur des solutions de type CDP et les services de données associés, notamment Private Cloud (PVC), évoluant dans un environnement conteneurisé OpenShift. Rattaché à l’équipe infrastructure ou data platform, le collaborateur intervient sur l’exploitation, l’administration et l’optimisation des plateformes big data, tout en garantissant leur disponibilité, leur performance et leur sécurité. Missions principales L’administrateur est responsable du bon fonctionnement de la plateforme CDP et de ses services data. Il assure l’installation, la configuration et la maintenance des environnements CDP Private Cloud ainsi que des services de données associés. Il prend en charge le déploiement et l’administration des services CDP Data Services (tels que Data Warehouse, Machine Learning ou Data Engineering) en s’appuyant sur l’infrastructure OpenShift. Il surveille en continu les performances de la plateforme et met en place des actions correctives ou d’optimisation afin de garantir un niveau de service optimal. Il participe à la gestion des incidents et des problèmes en analysant les causes racines et en proposant des solutions durables. Il veille à la bonne intégration des composants CDP avec l’écosystème technique existant, notamment les systèmes de stockage, de sécurité et de réseau. Il contribue à l’automatisation des tâches d’administration et de déploiement à travers des scripts ou des outils d’infrastructure as code. Il travaille en étroite collaboration avec les équipes data, DevOps et sécurité afin de faciliter l’usage de la plateforme et d’assurer sa conformité aux standards internes. Responsabilités techniques L’administrateur assure la gestion des clusters CDP Private Cloud (PVC), incluant leur installation, leur montée de version et leur maintenance corrective et évolutive. Il administre les environnements OpenShift utilisés pour héberger les services CDP Data Services et garantit leur bon dimensionnement. Il configure et maintient les services essentiels tels que Hive, Spark, Impala, HDFS et les services Kubernetes intégrés. Il met en œuvre les politiques de sécurité, notamment l’authentification (Kerberos, LDAP), la gestion des accès et le chiffrement des données. Il supervise les ressources système (CPU, mémoire, stockage) et optimise leur utilisation. Il participe à la mise en place de solutions de supervision et de logging adaptées à l’environnement. Compétences requises Le candidat possède une solide expérience sur la plateforme CDP, en particulier en environnement Private Cloud. Il maîtrise les concepts et l’administration d’OpenShift et des environnements Kubernetes. Il dispose de bonnes connaissances des composants big data tels que Hadoop, Spark, Hive et des outils associés. Il comprend les problématiques liées aux architectures distribuées, à la haute disponibilité et à la performance des systèmes. Il est à l’aise avec les environnements Linux et les outils d’automatisation (shell scripting, Ansible ou équivalent). Une bonne compréhension des enjeux de sécurité des données est attendue. Profil recherché Le poste s’adresse à un profil autonome, rigoureux et capable d’intervenir dans des environnements techniques complexes. Le candidat fait preuve d’un bon esprit d’analyse et de synthèse, et sait travailler en équipe avec des interlocuteurs variés. Une expérience dans un contexte DevOps ou data platform constitue un atout important. Environnement technique CDP Private Cloud (PVC) CDP Data Services (Data Warehouse, Data Engineering, Machine Learning) OpenShift / Kubernetes Hadoop ecosystem (HDFS, Hive, Spark, Impala) Linux (RedHat / CentOS) / Outils de monitoring et de logging
Mission freelance
QA Automaticien
Signe +
Publiée le
QA
6 mois
380-400 €
Toulouse, Occitanie
Bonjour, Nous recherchons pour l'un de nos clients un QA Automaticien. Contexte L’automaticien QA assure le contrôle qualité des projets en appliquant des méthodes de tests. Cela inclut la relecture des spécifications et des critères d’acceptance, la rédaction de la stratégie de recette et des cahiers de tests, la conception des tests et kits automatisés, l’exécution des campagnes de tests automatisés ou manuels. Il gère la déclaration ainsi que le suivi des anomalies, et fournit également des indicateurs d’avancement en remontant les alertes planning ou qualité associée. L’automaticien QA conseille les Business Analyst ou le Lead QA et travaille également en collaboration avec les Développeurs, équipe agile en méthodologie Scrum. La mission portera sur l’exécution et l’automatisation de tests procolaires (Passerelles autorisation Schemes, Systèmes d’autorisation, …) mais également des applications disposant d’une couche front et back.
Offre premium
Mission freelance
Chef de projet Flux/Data
Come Together
Publiée le
Gestion de projet
1 mois
Nord, France
Nous recherchons pour un grand compte de la région un chef de projet flux/data Mission : Pilotage des projets de mise en place de flux de données en provenance de systèmes industriels. Principales tâches de la mission - Accompagner les interlocuteurs métier dans la définition des besoins d’export. - Piloter les projets de mise place de flux DATA en provenance de systèmes industriels en lien avec les experts métiers, les éditeurs de solutions et les équipes IT - Produire l’ensemble des livrables en accord avec la méthodologie Projet du client. - Documenter et industrialiser dans l’équipe RUN afin d’en sécuriser la maintenance.
Offre d'emploi
Data Analyst (H/F) - Alternance
█ █ █ █ █ █ █
Publiée le
Big Data
Microsoft Excel
Python
Puteaux, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Ingénieur d’étude Migration de données (Linux / MVS – Cobol)
Signe +
Publiée le
Multiple Virtual Storage (MVS)
12 mois
300-360 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre de projets de migration de données vers de nouveaux systèmes d’information, l’ingénieur d’étude intervient sur les phases de spécification, développement, tests et recette. La mission s’inscrit dans un environnement agile orienté migration et modernisation de SI, avec utilisation d’outils internes permettant d’industrialiser les transformations de données. Objectif de la mission Contribuer à la migration de données d’un système source vers un système cible en assurant : l’analyse fonctionnelle des données la génération et la validation du code de transformation la mise en place des tests la communication avec les équipes métiers Missions principales Spécifications et analyse Rédiger les spécifications fonctionnelles des données à migrer Animer des ateliers avec les équipes métiers client Identifier les règles de transformation, fusion, éclatement ou filtrage des données Étudier les structures de fichiers source et cible Développement et transformation Utiliser l’outil interne pour générer du code en pseudo Cobol Implémenter les règles de migration dans l’outil Tester et corriger le code généré Participer aux phases de recette Tests et validation Définir la stratégie de tests Construire les cas de tests et jeux d’essai Suivre les anomalies et assurer les corrections Présenter les résultats à la MOA / équipes métiers Organisation projet Travailler en mode agile et itératif Gérer plusieurs sujets en parallèle Reporter sur l’avancement et les points de blocage Être force de proposition sur les optimisations Compétences obligatoires Maîtrise de Cobol Connaissance Linux ou environnement MVS Bonne compréhension des structures de fichiers (fichiers plats, encodage EBCDIC / ASCII) Expérience en migration ou transformation de données Première expérience en Banque ou Assurance de personnes (santé, prévoyance) Compétences appréciées Connaissance de l’environnement MVS Shell Linux PostgreSQL Méthodes agiles Animation d’ateliers fonctionnels Profil recherché Formation Bac+5 informatique ou scientifique Bonne capacité d’analyse fonctionnelle Autonomie rapide Bon relationnel client Capacité rédactionnelle claire et synthétique Esprit d’équipe et curiosité technique
Mission freelance
Ingénieur d’étude Migration de données (Linux / MVS – Cobol)
Signe +
Publiée le
Multiple Virtual Storage (MVS)
12 mois
300-350 €
Lyon, Auvergne-Rhône-Alpes
Contexte Dans le cadre de projets de migration de données vers de nouveaux systèmes d’information, l’ingénieur d’étude intervient sur les phases de spécification, développement, tests et recette. La mission s’inscrit dans un environnement agile orienté migration et modernisation de SI, avec utilisation d’outils internes permettant d’industrialiser les transformations de données. Objectif de la mission Contribuer à la migration de données d’un système source vers un système cible en assurant : l’analyse fonctionnelle des données la génération et la validation du code de transformation la mise en place des tests la communication avec les équipes métiers Missions principales Spécifications et analyse Rédiger les spécifications fonctionnelles des données à migrer Animer des ateliers avec les équipes métiers client Identifier les règles de transformation, fusion, éclatement ou filtrage des données Étudier les structures de fichiers source et cible Développement et transformation Utiliser l’outil interne pour générer du code en pseudo Cobol Implémenter les règles de migration dans l’outil Tester et corriger le code généré Participer aux phases de recette Tests et validation Définir la stratégie de tests Construire les cas de tests et jeux d’essai Suivre les anomalies et assurer les corrections Présenter les résultats à la MOA / équipes métiers Organisation projet Travailler en mode agile et itératif Gérer plusieurs sujets en parallèle Reporter sur l’avancement et les points de blocage Être force de proposition sur les optimisations Compétences obligatoires Maîtrise de Cobol Connaissance Linux ou environnement MVS Bonne compréhension des structures de fichiers (fichiers plats, encodage EBCDIC / ASCII) Expérience en migration ou transformation de données Première expérience en Banque ou Assurance de personnes (santé, prévoyance) Compétences appréciées Connaissance de l’environnement MVS Shell Linux PostgreSQL Méthodes agiles Animation d’ateliers fonctionnels Profil recherché Formation Bac+5 informatique ou scientifique Bonne capacité d’analyse fonctionnelle Autonomie rapide Bon relationnel client Capacité rédactionnelle claire et synthétique Esprit d’équipe et curiosité technique
Mission freelance
Ingénieurs Cloud - Architecte Ingénieur Openstack
HAYS France
Publiée le
Architecture
CI/CD
Cloud
2 ans
630-730 €
Paris, France
Contexte et enjeux Dans le cadre du design, de l’évolution et de l’exploitation des plateformes IAAS basées sur OpenStack , notre client recherche un Ingénieur Cloud / Architecte OpenStack . Les plateformes OpenStack constituent le socle d’infrastructure pour l’ensemble des entités du groupe . Intervention sur des environnements critiques en production , avec un niveau d’exigence élevé. Le poste est stratégique , avec un fort enjeu de : Cohérence des architectures techniques Sécurité des infrastructures Intégration transverse dans un écosystème complexe Missions – Exploitation & Maintien en Condition Opérationnelle (RUN) Administration et exploitation des plateformes OpenStack (communautaire). Gestion et administration des systèmes de stockage (Ceph notamment). Supervision de l’ infrastructure matérielle : Gestion du hardware Urbanisation des Datacenters Suivi du capacity planning Gestion de l’obsolescence Rôle de Captain Run : Prise en charge des incidents N3 / N4 Analyse et résolution d’incidents complexes : Hardware OpenStack Réseau Stockage Application des processus de gestion de la production (ITIL, gestion des changements, incidents, problèmes). Analyse des métriques, supervision et fiabilité : Exploitation des outils de monitoring existants Capacité à faire évoluer le système de supervision Prise en compte et intégration des exigences de sécurité dans l’exploitation quotidienne. Missions – Architecture & DevOps (BUILD) Conception des infrastructures OpenStack de nouvelle génération . Participation aux choix d’architecture : Design HLD / LLD Prise en compte des exigences transverses (sécurité, résilience, scalabilité). Veille technologique active : OpenStack Nouvelles features Open Source Technologies infra & cloud émergentes Mise en œuvre d’une approche DevOps : Infra as Code Automatisation des déploiements Contribution aux pipelines CI/CD : Déploiement et évolution des plateformes Industrialisation des processus Garantie de la qualité des livrables : Documentation d’architecture Documentation d’exploitation Cohérence technique globale.
Offre d'emploi
Responsable de mise en production (H/F)
OMICRONE
Publiée le
Batch
Control-M
EGEN
2 ans
40k-41k €
400 €
Saran, Centre-Val de Loire
Contexte de la mission Dans le cadre des activités de la DSIN du groupe Covéa (GMF), au sein de l’entité Planification et changements des Opérations , nous recherchons un Responsable de mise en production orienté batch pour renforcer l’équipe en charge de la gestion et du suivi des plannings batch sur différents environnements. Vos missions • Suivi et gestion des plans d’exploitation batch sur l’ensemble des environnements • Pilotage des traitements via les ordonnanceurs Control-M et CA7 • Analyse de niveau 1 des incidents et communication associée • Analyse et optimisation des plans batch • Coordination avec les équipes support et l’équipe d’intégration batch • Interaction avec un prestataire externe en charge du suivi des traitements (HO/HNO) Environnement technique • Ordonnanceurs : Control-M, CA7 • Outils : EVT, EGEN • Environnements : Mainframe et distribué Profil recherché • Expérience en mise en production / exploitation batch • Bonne maîtrise des ordonnanceurs (Control-M, CA7) • Connaissance des environnements mainframe et distribués • Capacité à analyser et gérer des incidents • Bon relationnel pour la coordination multi-équipes
Mission freelance
Architecte fonctionnel PLM
Signe +
Publiée le
PLM (Product Lifecycle Management)
6 mois
500-600 €
Toulouse, Occitanie
Bonjour, Nous recherchons pour l'un de nos client un architecte fonctionnel PLM. Au moins 10 à 15 ans d'expérience dans le domaine fonctionnel PLM, dont au moins 5 à 10 ans dans l'architecture fonctionnelle chez Airbus Doit avoir dirigé/participé à l'architecture transversale pendant plus de 5 ans Connaissance du domaine Airbus : structure des produits (EBOM), nomenclature CAO, DMU, gestion des modifications et des configurations. Connaissance fonctionnelle transversale du paysage PLM d'Airbus (y compris PASS SSI, VPM/Optegra/CADINT, APS, PS SSI, DMU/TreND, PDMLink CC, AIRINA, LTA4ALL, etc.). Solide connaissance du domaine SSI. Principes de gestion de la structure des produits et de la configuration Processus de publication et de gestion des versions Processus d'installation des systèmes (équipements) Interaction avec les outils CAO/TDM/Conf-Mgmt/DMU Une bonne connaissance des processus transversaux tels que BASIC, Full3D, l'archivage à long terme (LTA3D), l'automatisation de la conception ESI et la gestion PZ/RPZ serait un plus Alimentation en aval des outils AIRINA, de fabrication et de service à la clientèle Bonne connaissance du domaine Elec Bonne connaissance des activités d'intégration au-delà de l'architecture, en particulier l'élaboration de stratégies de test (y compris les données, le paysage, les scénarios) pour une version complexe Connaissance des méthodes Agile/SAFe
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
432 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois