L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 701 résultats.
Mission freelance
Ingénieur DevOps / Cloud Azure - Data & Plateforme Offline
Publiée le
Azure DevOps
Git
Helm
1 mois
400-550 €
Paris, France
Bonjour à tous, Je recherche pour le compte d'un de mes clients plusieurs DevOps. Voici les missions : Contribution fonctionnelle & technique Intégrer de nouvelles fonctionnalités issues de composants open-source et assurer la maintenance des fonctionnalités existantes. Collaborer quotidiennement avec les Data Engineers (échanges sur les cas d’usage, tests, besoins utilisateurs finaux). Infrastructure & automatisation Automatiser le déploiement d’infrastructures Cloud à grande échelle sous Azure , en particulier la gestion de clusters Azure au niveau ressource. Travailler dans une infrastructure 100% Terraform (≈45%) : définition, maintenance et optimisation des modules et stacks IaC. Utiliser Terragrunt pour organiser et orchestrer les déploiements multi-environnements. Automatiser et industrialiser le déploiement d’images Docker et de composants applicatifs au sein de clusters Kubernetes. Concevoir, maintenir et optimiser des charts Helm (≈30%) pour les différents services déployés. Maintenir et développer des scripts et utilitaires en bash (≈20%) et ponctuellement en Python (≈5%). Plateforme Data & environnement offline Déployer et intégrer des composants transverses : Ingress, Keycloak, Nexus… Automatiser et opérer les briques techniques liées aux traitements de données : GitLab, Jupyter/JupyterHub (notamment en environnement offline), Spark, PostgreSQL… Travailler dans des environnements sans accès internet , incluant la gestion interne des identités, l’intégration réseau, et la gestion complète du cycle de vie applicatif. CI/CD & qualité Utiliser la suite Azure DevOps (repos, boards, pipelines). Exécuter et superviser des pipelines CI/CD de tests et de déploiements déjà implémentés. Participer activement aux pratiques DevOps : revue de code, bonnes pratiques Git, amélioration continue des workflows. Architecture & sécurité Contribuer à l’évolution de l’architecture de la plateforme en apportant votre expertise Cloud, Kubernetes ou systèmes distribués. Assurer une veille active sur les sujets technologiques et de sécurité. Appliquer et promouvoir les bonnes pratiques en matière de sécurité des données et de la plateforme. Actualiser et structurer la documentation technique.
Mission freelance
Un(e) Data Analyste - Maintenance évolutive d'une application de reporting
Publiée le
IBM DataStage
Microsoft Power BI
Microsoft SQL Server
6 mois
400-480 €
Bois-Colombes, Île-de-France
Télétravail partiel
Data Analyste Expert - Maintenance évolutive d'une application de reporting Contexte : Nous recherchons pour un(e) consultant(e) Data Analyste BI confirmé(e) pour assurer la maintenance évolutive et contribuer à l'amélioration continue d'une application de reporting interne dédiée au suivi commercial. Cette application joue un rôle clé en collectant des données stratégiques et en les mettant à disposition des utilisateurs internes afin de suivre et analyser la performance commerciale. Missions : En tant que Data Analyste confirmé, vous serez chargé(e) de la gestion opérationnelle de l’application de reporting et participerez activement à un projet stratégique visant à optimiser le processus de collecte et de mise à jour des données. Ce projet a pour objectif de simplifier les flux de données, réduire au minimum les traitements manuels, et accélérer le cycle de mise à jour des informations tout en garantissant une qualité de données irréprochable. Plus spécifiquement, vous serez amené(e) à : • Assurer la maintenance évolutive de l'application existante, en veillant à son bon fonctionnement et à l’intégration des évolutions nécessaires pour répondre aux besoins internes. • Contribuer à l'amélioration du processus de reporting en travaillant sur l’automatisation de la collecte de données et l'optimisation des traitements, afin de simplifier le processus tout en préservant la fiabilité et la précision des données. • Collaborer avec l’équipe interne pour définir les besoins fonctionnels et techniques, et pour déployer des solutions adaptées à l’amélioration de l'analyse de la performance commerciale. • Apporter une expertise technique et fonctionnelle pour l’optimisation des outils de reporting et pour le développement de nouvelles fonctionnalités. • Prendre en charge la maintenance des solutions déployées en apportant des améliorations continues et en veillant à leur adéquation avec les exigences métiers. • Effectuer une analyse détaillée des données afin d’identifier des axes d’amélioration dans les processus existants et proposer des solutions efficaces et adaptées aux enjeux commerciaux de l’entreprise. • Assistance aux utilisateurs en faisant preuve de pédagogie pour les autonomiser. Aide à la gestion du changement. Compétences techniques et linguistiques requises Profil recherché : • Expertise confirmée en Business Intelligence, avec une maîtrise des outils d’extraction et de traitement de données, et des technologies associées. • Maitrise de l’utilisation de SQL pour sélectionner des données • Compétences solides en analyse de données, avec une capacité à traduire des besoins métiers en solutions techniques. • La connaissance d’outils de reporting serait un plus. • Capacité à travailler de manière autonome et en équipe. • Rigueur et souci de la qualité des données, avec une forte orientation résultats. Les solutions BI mise en œuvre actuellement chez le client sont basées sur les technologies suivantes : • Oracle • IBM Datastage • Power BI • SAP Business Object 4.2 • Outil de data virtualization comme Denodo • Sqlserver Compétences requises • Une expérience significative d’un minima de 4 années dans l’intégration de systèmes décisionnels • Une expertise concrète en environnement BI • De solides connaissances ainsi qu’une expérience significative dans la manipulation de données. • Des compétences fonctionnelles • Un fort sens de l’analyse et de la pro activité • Capacité rédactionnelle • Excellent relationnel • Maîtrise de l’anglais indispensable (lu, parlé, écrit) Autres compétences appréciées • Connaissance du métier de l’assurance Durée de la Prestation Régie, pour une période de 6 mois renouvelable.
Offre d'emploi
Product OWNER DATA / BI (Compétence Salesforce Obligatoire)
Publiée le
Salesforce CPQ
3 ans
40k-55k €
380-530 €
Boulogne-Billancourt, Île-de-France
La Direction des Technologies d’un grand groupe média français conçoit, opère et fait évoluer les systèmes techniques (IT et diffusion) qui soutiennent l’ensemble de ses activités. Elle travaille en étroite collaboration avec les différents métiers du groupe (publicité, contenus, antennes, production, entertainment…) et intervient sur des enjeux clés de support et de transformation digitale . Avec plusieurs centaines de collaborateurs, cette direction accompagne chaque année de nombreux projets stratégiques, innovants et à fort impact business . Le Pôle Produits Publicitaires est en charge de la conception, du développement et de la maintenance des outils de la régie publicitaire, organisés autour de 7 grands produits structurants : Commercialisation : prospection, négociation, contractualisation Offre : catalogue, tarification, inventaire, optimisation Achat : commande, valorisation, arbitrage, programmation Diffusion : gestion des créations, panachage, conducteur Gestion financière : valorisation, prévisions de chiffre d’affaires, facturation Portail client : digitalisation de la relation client BI / Data : entrepôt, consolidation et diffusion des données Dans ce contexte de forte transformation digitale , le pôle recherche un Product Owner CRM – Data Client BtoB & Prospection pour piloter des produits au cœur de la stratégie commerciale et data. Vous êtes animé(e) par les enjeux CRM BtoB , la valorisation de la donnée client et l’optimisation des process de prospection ? Vous aimez faire le lien entre vision business, besoins métiers et delivery produit dans un environnement agile et exigeant ?
Mission freelance
Administrateur Systèmes - Full remote - Ouvert Near-shore
Publiée le
Axway
CFT (Cross File Transfer)
Control-M
6 mois
100-310 €
Île-de-France, France
Télétravail 100%
📢 Je recherche un consultant systèmes pour l’un de mes clients basé en Île‑de‑France. Full remote Démarrage ASAP 🎯Mission : - Etre responsable d’opérations complexes d’automatisation de la production, avec maîtrise et optimisation des logiciels spécifiques - Maintenir et développer des scripts shells (Linux ou Windows) - Intervenir immédiatement, en cas d’incident et rechercher le délai le plus bref pour la remise en fonction du service. - Traiter les demandes de mises en services de traitements batch - Traiter les demandes de support sur les chaînes de traitement (modification, relance, reprises) 🧑💻Profil recherché : - Autonomie, rigueur et sens de l’organisation. - Excellent relationnel et bonne communication. - Bon niveau d’anglais écrit et lu. - Maîtrise des environnements Linux et Windows, ainsi que des scripts Shell/PowerShell. - Expérience confirmée en production ou pré‑production informatique. - Connaissance d’un ordonnanceur du marché : Control‑M, Axway Automator, $Universe, Tivoli… Axway Automator est l’outil utilisé par le client. - Familiarité avec au moins une plateforme d’échange de fichiers : Axway Secure Transport, CFT, GoAnywhere, Globalscape, etc.
Mission freelance
Ingénieur Data Power BI (H/F)
Publiée le
BI
6 mois
400-500 €
Nantes, Pays de la Loire
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 📍 Lieu : Nantes (44) + déplacements mensuels à La Roche Sur Yon (85) 🏠 Télétravail : 2 jours par semaine ✔ Démarrage Février 2026 - mission de 6 à 9 mois ✏ Freelance, portage salarial ou CDI 🌎Contexte international : Anglais lu et écrit indispensable 👉 Contexte client : Dans le cadre de notre développement, nous recherchons un Ingénieur Data Power BI (H/F) afin d'accompagner un de nos clients. Au sein de la DSI du client, tes responsabilités principales sont : Former un binôme avec un chef de projet interne Participer au projet de déploiement de l'ERP SAP Business One au niveau Européen Implémenter le volet Data BI de l'ERP Migrer le legacy DataServices vers Power BI Participer à la mise en place de MS Fabric
Mission freelance
[LFR] Consulting Sécurité Opérationnelle, Sénior à Paris - 1140
Publiée le
10 mois
400-545 €
Paris, France
Télétravail partiel
Secteur d'assurance. Description et localisation Description: Integration Engineering Service to deliver on IGA (identity Governance and Administration) - Saviynt Product 1/Context: The service will be with IGP (Identity Global Products), the IT department in charge providing Identity Products in all the whole Organization. IGP is responsible of managing and transforming products allowing for the group: o Identity Provisioning & Authorizations: Creating, managing, and deactivating user accounts and roles across various systems and applications in the organization. o Authentication: Implementing technologies and processes that verify the identity of users and systems. o Access Management: Ensuring that only authorized individuals have access to specific resources and information. This includes managing permissions and access controls. o Security: Protecting sensitive data from unauthorized access and potential breaches. This involves implementing robust identity and access management policies and procedures. o Compliance: Ensuring the organization meets various regulatory requirements related to identity management and data protection. In essence, the IT Identity Department is the guardian of the company’s digital identity, ensuring the right people have the right access at the right time. It’s a critical function that helps maintain the integrity, confidentiality, and availability of the company’s information assets. Currently transformed thanks to a major program mobilizing ~100 people, we aim to deliver a centralized solution to manage identity of our 220 000 employees and contractors. We purchase for that a product, Saviynt, currently in deployment phase. The engineering service will interact with a team of already 8 other resources in the scope of integration works and the service will ensure reinforcement of : Service for problem and demand activities Service for application onboarding onto the IGA platform 2/Services: The purpose of the Integrator service in implementing an Identity Governance and Administration (IGA) solution is multi-faceted: o Service with Technical Implementation: The Integrator service will put into deliverables the technical aspects of implementing the solution, including system configuration, customization, testing, and deployment. o Service for Process Automation: By automating identity management processes, the Integrator service provides support to streamline and automate the process of creating, managing, and deactivating user identities, reducing manual effort and the risk of errors. o Service with Cross-Functional Interface: The Integrator service operates closely with various teams, including IT, HR, and Security, to understand their needs and ensure the identity provisioning tool meets these needs. o Service with Maintenance: To maintain and enhance the new Organization global platform, its documentation (Target Operating Model, architecture, guides, procedures, etc.), according to Product lifecycle, roadmap and projects, o Service with Operations: The integrator service will be required to manage complex IAM IPC (Incident Problem Change) and train BAU teams on standard operations, o Service for Change: The service will also be requested to support during the demand management process, to analyze fit of client’s requirements to existing use cases and scope the effort to execute the demand, Service Expertise: o Service with Confirmed, proven, successful, expertise in Information security / IAM as specialized service or expert service in large scale organization in a Shared-Services setup, o Service with Proven expertise with Saviynt (IGA cloud platform) o Service with expertise in Directories, SQL, Certificates, PKI, Java and Middleware are recommended manage the existing technical environments. Working environments and contexts: o English working environment and English context – Mandatory. o French working environment and French context – Nice to have. Contexte : Mission au sein d’IGP (Identity Global Products), département IT responsable des solutions d’identité pour tout le Groupe. Objectif : déployer une solution centralisée pour gérer les identités des 220 000 employés et prestataires via le produit Saviynt (en phase de déploiement). Équipe actuelle : 8 ressources, renfort nécessaire pour les activités d’intégration. Responsabilités principales : Intégration technique : configuration, personnalisation, tests et déploiement de la solution IGA. Automatisation des processus : réduire les tâches manuelles et les erreurs. Interface transverse : collaboration avec IT, RH et Sécurité. Maintenance et documentation : architecture, guides, procédures, roadmap. Opérations : gestion des incidents, problèmes, changements (IPC) et formation des équipes BAU. Gestion des demandes : analyse des besoins, évaluation des écarts et chiffrage. Expertise requise : Solide expérience en IAM / Sécurité dans des organisations de grande taille. Maîtrise confirmée de Saviynt (IGA cloud). Connaissances recommandées : Directories, SQL, PKI, certificats, Java, Middleware. Langues : Anglais obligatoire, Français apprécié.
Offre d'emploi
Développeur Full Stack Senior - Flux Paiement - Java 17 + / Kafka / Spring (H/F)
Publiée le
Apache Kafka
DevOps
Finance
12 mois
75002, Paris, Île-de-France
Télétravail partiel
Contexte Le projet comprend la construction d’une plateforme de services destinés aux prestataires de services de paiement (PSP) , ces derniers gérant toutes les interactions avec les utilisateurs (particuliers, entreprises, administrations) d’une monnaie numérique. Mission La mission porte sur le développement d’un composant responsable du règlement (vérification, exécution, enregistrement) des transactions de paiement. Date de début et de fin du contrat : Début Décembre 2025 (mission longue) Statut : CDI / Freelance Missions : - Conception et développement des composants et des prototypes - Définir et implémenter les tests unitaires des modules - Respecter les standards de développement, revues de code - Assurer le respect des exigences de performance, montée en charge, résilience) - Rédiger de la documentation technique (en anglais)
Offre d'emploi
Architecte Technique Data Expert Technique - Architecture Data & Cloud (H/F)
Publiée le
Gitlab
18 mois
40k-45k €
110-600 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Architecture technique, Sécurité, Méthode, Expert technique Spécialités technologiques : Cloud, Infrastructure & Cloud, Devops, Gouvernance des données, IAM Compétences Technologies et Outils AWS CI/CD Spark Terraform Python Docker Kinesis Amazon Kubernetes Gitlab Description et livrables de la prestation Le poste d'Architecte Technique Data Expert Technique, également de niveau Expérimenté ou Sénior, a pour mission d'assurer la validité technique et l'alignement des architectures Data avec les standards définis dans le cadre du Programme Vision 2035. En tant que référent technique, vous interviendrez en amont au sein des équipes CAPVISION (méthodologies Capvision, Découverte, Zoom) pour définir les architectures cibles et garantir leur cohérence au sein de l'écosystème SI existant. Vos responsabilités englobent la définition des architectures Cloud (performance, résilience), la mise en œuvre de la gouvernance des données (Dataviz, Datamesh), et la sécurisation des données. Compétences et Technologies (Focus Technique) : Ce rôle requiert une expertise en architecture Data et Cloud (Niveau 4). La maîtrise des outils de gouvernance de la donnée tels que Dataviz et Datamesh est primordiale (Niveau 4). Une expertise est demandée sur la gestion de la sécurité du SI, notamment la gestion des accès (IAM) et les mécanismes de protection des données (Niveau 4). De solides connaissances en intégration et déploiement continus (CI/CD) sont requises (Niveau 4). Techniquement, vous utiliserez Python et Spark. Les services Cloud spécifiques comprennent AWS IAM, Amazon Kinesis, AWS Lake Formation, AWS S3, ainsi que les outils d'industrialisation AWS, Gitlab CI, Docker, Kubernetes et Terraform. Expertise souhaitée Architecte Technique Data Expert Technique
Offre d'emploi
Data Analyst - PowerBI
Publiée le
Conception
ETL (Extract-transform-load)
Microsoft Power BI
1 an
40k-45k €
300-500 €
Toulouse, Occitanie
Télétravail partiel
Nous recherchons un Data Analyst expérimenté pour intervenir sur la conception, le développement et l’industrialisation de dashboards Power BI destinés à des équipes internes. La mission couvre l’ensemble de la chaîne data : recueil des besoins, récupération et intégration des données, modélisation, alimentation de l’entrepôt de données, création de tableaux de bord, livraison et support aux utilisateurs. Vous participerez également à l’administration de l’environnement Power BI et au suivi des activités dans un outil de ticketing. Vous interviendrez sur des données liées au support informatique et aux cycles de vie des incidents. Le rôle nécessite une excellente maîtrise de SQL, Power BI et SSIS, ainsi qu’un esprit analytique, une rigueur forte et une réelle capacité de communication. Compétences techniques SQL – Expert Power BI – Expert SSIS – Confirmé / Important PL/SQL ETL Environnements On-Premise (pas d’Azure / pas de Data Factory) Conception et modélisation de données Intégration de données dans un entrepôt Conception de bases agrégées
Offre d'emploi
Architecte Technique Data
Publiée le
Apache Spark
Architecture
Big Data
2 ans
48k-98k €
400-770 €
Villejuif, Île-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Architecte technique Data Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plates-forme DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux reflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modérnisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query etc)
Mission freelance
Développeur Senior IAM (H/F) - PARIS
Publiée le
Angular
IAM
Java
12 mois
600-700 €
Paris, France
Télétravail partiel
Espace freelance recherche pour l'un de ses clients un : Développeur Senior IAM (H/F) - PARIS Vos principales missions : Concevoir et développer des fonctionnalités pour l’outil IAM basé sur SailPointIQ . Contribuer à la reconstruction complète de la plateforme pour garantir la conformité aux normes en vigueur. Collaborer avec les équipes techniques et métiers pour définir les besoins et rédiger les spécifications. Assurer la maintenance et l’évolution de l’application IAM Vous avez de bonnes bases sur Java Vous avez déjà utilisé SailPointIQ Vous maitrisez Angular Serait un plus : Beanshell
Mission freelance
[LFR] Consulting Sécurité Opérationnelle, Sénior à Paris - 1140
Publiée le
10 mois
400-545 €
Paris, France
Télétravail partiel
Secteur d'assurance. Description et localisation Description: Integration Engineering Service to deliver on IGA (identity Governance and Administration) - Saviynt Product 1/Context: The service will be with IGP (Identity Global Products), the IT department in charge providing Identity Products in all the whole Organization. IGP is responsible of managing and transforming products allowing for the group: o Identity Provisioning & Authorizations: Creating, managing, and deactivating user accounts and roles across various systems and applications in the organization. o Authentication: Implementing technologies and processes that verify the identity of users and systems. o Access Management: Ensuring that only authorized individuals have access to specific resources and information. This includes managing permissions and access controls. o Security: Protecting sensitive data from unauthorized access and potential breaches. This involves implementing robust identity and access management policies and procedures. o Compliance: Ensuring the organization meets various regulatory requirements related to identity management and data protection. In essence, the IT Identity Department is the guardian of the company’s digital identity, ensuring the right people have the right access at the right time. It’s a critical function that helps maintain the integrity, confidentiality, and availability of the company’s information assets. Currently transformed thanks to a major program mobilizing ~100 people, we aim to deliver a centralized solution to manage identity of our 220 000 employees and contractors. We purchase for that a product, Saviynt, currently in deployment phase. The engineering service will interact with a team of already 8 other resources in the scope of integration works and the service will ensure reinforcement of : Service for problem and demand activities Service for application onboarding onto the IGA platform 2/Services: The purpose of the Integrator service in implementing an Identity Governance and Administration (IGA) solution is multi-faceted: o Service with Technical Implementation: The Integrator service will put into deliverables the technical aspects of implementing the solution, including system configuration, customization, testing, and deployment. o Service for Process Automation: By automating identity management processes, the Integrator service provides support to streamline and automate the process of creating, managing, and deactivating user identities, reducing manual effort and the risk of errors. o Service with Cross-Functional Interface: The Integrator service operates closely with various teams, including IT, HR, and Security, to understand their needs and ensure the identity provisioning tool meets these needs. o Service with Maintenance: To maintain and enhance the new Organization global platform, its documentation (Target Operating Model, architecture, guides, procedures, etc.), according to Product lifecycle, roadmap and projects, o Service with Operations: The integrator service will be required to manage complex IAM IPC (Incident Problem Change) and train BAU teams on standard operations, o Service for Change: The service will also be requested to support during the demand management process, to analyze fit of client’s requirements to existing use cases and scope the effort to execute the demand, Service Expertise: o Service with Confirmed, proven, successful, expertise in Information security / IAM as specialized service or expert service in large scale organization in a Shared-Services setup, o Service with Proven expertise with Saviynt (IGA cloud platform) o Service with expertise in Directories, SQL, Certificates, PKI, Java and Middleware are recommended manage the existing technical environments. Working environments and contexts: o English working environment and English context – Mandatory. o French working environment and French context – Nice to have. Contexte : Mission au sein d’IGP (Identity Global Products), département IT responsable des solutions d’identité pour tout le Groupe. Objectif : déployer une solution centralisée pour gérer les identités des 220 000 employés et prestataires via le produit Saviynt (en phase de déploiement). Équipe actuelle : 8 ressources, renfort nécessaire pour les activités d’intégration. Responsabilités principales : Intégration technique : configuration, personnalisation, tests et déploiement de la solution IGA. Automatisation des processus : réduire les tâches manuelles et les erreurs. Interface transverse : collaboration avec IT, RH et Sécurité. Maintenance et documentation : architecture, guides, procédures, roadmap. Opérations : gestion des incidents, problèmes, changements (IPC) et formation des équipes BAU. Gestion des demandes : analyse des besoins, évaluation des écarts et chiffrage. Expertise requise : Solide expérience en IAM / Sécurité dans des organisations de grande taille. Maîtrise confirmée de Saviynt (IGA cloud). Connaissances recommandées : Directories, SQL, PKI, certificats, Java, Middleware. Langues : Anglais obligatoire, Français apprécié.
Mission freelance
Administrer moteurs bases de données et plateformes data
Publiée le
Google Cloud Platform (GCP)
Oracle
PostgreSQL
1 an
370-390 €
Tours, Centre-Val de Loire
Télétravail partiel
Missions principales L’ingénieur de Production data assure : L’administration, la sauvegarde, la restauration et l’optimisation de bases de données et plateformes data dans le respect des processus client on premise et cloud. La gestion des incidents et participe à la résolution des problèmes Installation, configuration, maintenance et évolution des plateformes (Greenplum, couchbase et elasticsearch, etc) Maintien en conditions opérationnelles des plateformes Suivi et amélioration des performances (mémoire, disques, index, requêtes), Stratégies de sauvegarde, restauration et supervision La gestion des accès et création des comptes autorisés à se connecter aux plateformes De la veille technologique La gestion documentaire du périmètre Astreinte
Mission freelance
Technico-Fonctionnel / Scientific Data Engineering - Expert DataOps - R&D - 1117
Publiée le
6 mois
500-530 €
Paris, France
Télétravail partiel
Objectifs de la mission : Le Passenger Cognition Lab modélise les comportements des voyageurs afin d’optimiser les services digitaux et l’information voyageur en Île-de-France. Le Lab recherche un Ingénieur de Recherche DataOps capable de concevoir et enrichir une infrastructure de données permettant des études scientifiques sur la cognition des voyageurs. Enjeux et rôle du consultant - Traduire les besoins théoriques des chercheurs en pipelines de données robustes et architectures cloud performantes (AWS). - Garantir l’intégrité scientifique des traitements : gestion des biais statistiques, fiabilité des séries temporelles, reproductibilité. - Concevoir des environnements d’expérimentation Cloud fiables, orientés production de résultats scientifiques. - Documenter et structurer les travaux pour assurer leur pérennité. - Agir comme le bras technique du Lab dans un contexte de recherche. Environnement & contexte : R&D agile manipulant des volumes de données massifs et hétérogènes. Stack : AWS, Python (Scientific Stack), conteneurisation. Interaction clé avec l’IT Groupe pour favoriser le portage et l’exploitation des données dans d’autres projets. Livrable : Instrumentation des données pour la recherche (Scientific Data Engineering) Architecture Cloud pour l'expérimentation (Scientific Ops) Formalisation technique et Support à la valorisation Obligatoire : Thèse de doctorat (Data, ML ou Mathématiques Appliquées) garantissant sa capacité à dialoguer avec des chercheurs, couplée à une expérience opérationnelle forte en Ingénierie logicielle/Cloud. Expériences entre 7 et 9 années.
Offre d'emploi
Ingénieur Infrastructure & Big Data
Publiée le
Cassandra
Hadoop
Linux
1 an
40k-55k €
400-550 €
Nancy, Grand Est
Télétravail partiel
I. Contexte : Notre client connaît une forte croissance (+1,5 million de clients en un an) et renforce l’équipe Architecture Système/Réseaux (10 personnes) pour assurer la gestion et l’évolution de son infrastructure critique. L’environnement technique est 100% Linux, avec une architecture complexe : · Réseau : 2400 VM, 5-6 Data Centers, 100 applications Open Source · Datalakes : 2 PetaOctets de données · Organisation : Pas de PO, Scrum Master ni DevOps ; 4 équipes de développement (~30 projets) · Répartition des activités : o 1/3 MCO o 1/3 Obsolescence o 1/3 Build / Industrialisation II. Missions : Objectifs de la mission · Assurer la maintenance en conditions opérationnelles (Run 40%) et contribuer à la conception et industrialisation des infrastructures. · Participer à la mise en place d’un socle commun de provisioning, avec un focus sur Data et Sécurité. · Interagir avec les équipes BI pour les besoins de reporting réglementaire et autres. Enjeux techniques · Axes de conception : o Scalabilité o Résilience (site internet = point de contact unique) o Sécurité (chiffrement avancé, PKI, certificats) · Technologies & outils : o Système : Linux o Réseaux : TCP/IP niveau 2, HTTP, SNTP, DNS, zones, reverse proxy o Sécurité : PKI, certificats, chiffrement asymétrique o Containers & IaC : Kubernetes, Ansible (usage limité), Puppet, Terraform o Big Data : Hadoop, Spark, Cassandra, Zeppeli o Autres outils : Kafka, Cognos, Docker, Elasticsearch o Machine Learning : détection de fraude en temps réel · Cloud : utilisation très marginale (Infra as Code majoritairement on-premise)
Mission freelance
Développeur CRM Salesforce Marketing Cloud
Publiée le
Data Lake
Salesforce Sales Cloud
1 an
400-550 €
Nantes, Pays de la Loire
Télétravail partiel
Recherche – Développeur CRM Salesforce Marketing Cloud (Nantes | 2 à 3 jours/semaine) Dans le cadre d’une consultation sur le contrat-cadre AST & Digital , nous recherchons un Développeur CRM Salesforce Marketing Cloud (expérimenté ou senior). 📅 Démarrage prévu : 4 décembre 2025 ⏱️ Rythme : mi-temps (2 à 3 jours par semaine) 📍 Présence sur site : lundi, mardi et jeudi 🎯 Missions principales Développer, maintenir et intégrer des solutions Salesforce Marketing Cloud : Emails, Push, Journey Builder, Automations, Datorama. Créer et personnaliser des parcours clients et des contenus dynamiques (HTML, AMPscript, responsive design, gestion de Data Extensions, Interactive Email Form). Implémenter des API et SDK SFMC sur applications mobiles natives, gérer la synchronisation CRM/Datalake et les processus automatisés RGPD . Assurer la gestion opérationnelle , les releases , le monitoring et l’ optimisation des performances (tracking, délivrabilité, réputation IP). Apporter support et conseil aux équipes métiers et digitales, dans un environnement agile et collaboratif.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
2701 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois