L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 371 résultats.
Offre d'emploi
Data Analyst - Qlik Sense - Rennes
Publiée le
Data visualisation
Qlik Sense
Qlikview
3 mois
40k-45k €
400-450 €
Rennes, Bretagne
Télétravail partiel
Nous recherchons pour le compte de notre client grand compte national un(e) consultant développeur décisionnel . Ses Principales missions : Accompagnement des métiers dans l’expression des besoins et dans les recettes Modélisation décisionnelle Conception, réalisation et maintenance de tableaux de bord ou applications décisionnelles sous QlikView et/ou QlikSense Argain Consulting Innovation est une marque forte spécialisée en performance des projets, des organisations et valorisation de la donnée au sein de l'écosystème Alan Allman Associates implantée à Paris, Nantes, Lyon, Niort. Nous mettons un point d'honneur à maintenir le lien avec chacun de nos talents et mettons tout en œuvre pour développer et entretenir un fort sentiment d'appartenance. Nous rejoindre, c’est intégrer une équipe à taille humaine dont l’humain est l’épicentre, un cabinet où autonomie, confiance et partage sont des principes forts.
Mission freelance
Ingénieur DevOps / Cloud Azure - Data & Plateforme Offline
Publiée le
Azure DevOps
Git
Helm
1 mois
400-550 €
Paris, France
Bonjour à tous, Je recherche pour le compte d'un de mes clients plusieurs DevOps. Voici les missions : Contribution fonctionnelle & technique Intégrer de nouvelles fonctionnalités issues de composants open-source et assurer la maintenance des fonctionnalités existantes. Collaborer quotidiennement avec les Data Engineers (échanges sur les cas d’usage, tests, besoins utilisateurs finaux). Infrastructure & automatisation Automatiser le déploiement d’infrastructures Cloud à grande échelle sous Azure , en particulier la gestion de clusters Azure au niveau ressource. Travailler dans une infrastructure 100% Terraform (≈45%) : définition, maintenance et optimisation des modules et stacks IaC. Utiliser Terragrunt pour organiser et orchestrer les déploiements multi-environnements. Automatiser et industrialiser le déploiement d’images Docker et de composants applicatifs au sein de clusters Kubernetes. Concevoir, maintenir et optimiser des charts Helm (≈30%) pour les différents services déployés. Maintenir et développer des scripts et utilitaires en bash (≈20%) et ponctuellement en Python (≈5%). Plateforme Data & environnement offline Déployer et intégrer des composants transverses : Ingress, Keycloak, Nexus… Automatiser et opérer les briques techniques liées aux traitements de données : GitLab, Jupyter/JupyterHub (notamment en environnement offline), Spark, PostgreSQL… Travailler dans des environnements sans accès internet , incluant la gestion interne des identités, l’intégration réseau, et la gestion complète du cycle de vie applicatif. CI/CD & qualité Utiliser la suite Azure DevOps (repos, boards, pipelines). Exécuter et superviser des pipelines CI/CD de tests et de déploiements déjà implémentés. Participer activement aux pratiques DevOps : revue de code, bonnes pratiques Git, amélioration continue des workflows. Architecture & sécurité Contribuer à l’évolution de l’architecture de la plateforme en apportant votre expertise Cloud, Kubernetes ou systèmes distribués. Assurer une veille active sur les sujets technologiques et de sécurité. Appliquer et promouvoir les bonnes pratiques en matière de sécurité des données et de la plateforme. Actualiser et structurer la documentation technique.
Mission freelance
Développeur AWS Data et spark
Publiée le
API
AWS Cloud
AWS Glue
1 an
540-580 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Dans le cadre d’un programme stratégique de pilotage financier, nous recherchons un Ingénieur Logiciel Data Cloud AWS confirmé (+7 ans d’expérience) pour rejoindre une équipe de développement et d’ingénierie orientée données et services cloud. Vous interviendrez sur la conception, l’implémentation et l’amélioration continue des services AWS nécessaires au traitement, à l’analyse et à la planification financière. Le contexte est exigeant : réglementaire, sécurité, performance, optimisation des coûts et démarche DevOps/DORA. Vous intégrerez une équipe de 9 personnes, dont un pôle cloud/data AWS déjà en place. Vos missions : Concevoir, développer et faire évoluer les services applicatifs AWS (Glue Spark, Lambda, Step Functions, Athena, S3, IAM). Intégrer les services aux différents écosystèmes techniques (plateforme Data, MDM, ZDP, Data Link, Anaplan). Proposer des optimisations, améliorer les architectures existantes, renforcer la robustesse et la performance. Prendre en compte les exigences métiers, réglementaires, sécuritaires et environnementales. Participer à une démarche d’amélioration continue (Lean, DevOps, DORA). Documenter les architectures, formaliser les conceptions, assurer un bon niveau de qualité. Implémenter les bonnes pratiques TDD / BDD. Collaborer en équipe dans un environnement cloud industriel avancé.
Offre d'emploi
Chef de projet DATA/MDM H/F
Publiée le
55k-60k €
Lyon, Auvergne-Rhône-Alpes
Vos missions principales : Pilotage de projets Data : vous conduisez des projets structurants de bout en bout, de la définition des besoins à la mise en production. Recueil et challenge des besoins métiers : vous identifiez les enjeux, proposez des solutions adaptées et accompagnez les équipes dans leur appropriation. Coordination transverse : vous êtes l'interface clé entre les équipes métiers, IT et data. Gouvernance de la donnée : vous contribuez activement à la mise en place de référentiels, à l'amélioration de la qualité des données, au catalogage et à la traçabilité. Suivi de la performance data : vous participez à la définition et au pilotage des KPIs liés à la valorisation des données.
Mission freelance
Data Scientist - Expertise OpenMetaData
Publiée le
API
Collibra
DataGalaxy
2 mois
520 €
France
Télétravail 100%
Profil : architecte ayant des connaissances sur l'implémentation de l'outil et son utilisation Attendus : Apporter un retour d’expérience concret (REX) sur la mise en oeuvre d’ OpenMetadata dans un contexte comparable. Challenger la position d’ OpenMetadata au sein de la data stack cible imaginée, en interaction avec les autres briques de la plateforme : ingestion, stockage, Transformation, visualisation, sécurité et gouvernance. Former les équipes socle sur : L’architecture fonctionnelle et technique d’OpenMetadata Les principaux cas d’usage (catalogue, lineage, quality, policy, tagging, etc.) Les modalités d’intégration (connecteurs, API, ingestion metadata). Orienter la stratégie de gouvernance en précisant Le positionnement d’OpenMetadata dans un écosystème comprenant un data catalog fonctionnel déjà existant (Zeenea) Les complémentarités et limites avec d’autres outils du marché (ex. Collibra, Atlan, DataGalaxy, etc.) Explorer plus particulièrement 2 sujets clés : Open Lineage : Intégration, couverture, limites, exploitation pour le suivi de la chaîne de valeur des données. Habilitations & Taggage : Fonctionnement natif d’OpenMetadata, articulation possible avec Apache Ranger et/ou Apache Atlas, gestion des rôles, politiques et classification des données.
Mission freelance
[FBO] Data Engineer avec expertise MLOps
Publiée le
Planification
Python
3 ans
400-590 €
Île-de-France, France
Télétravail partiel
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la mise en place d'une plateforme AIOPS. Les missions sont : En tant que DataOps Engineer avec expertise MLOps, les missions sont : - Deploiement et maintenance des pipelines de données scalables et résilients (batch/streaming) en utilisant Kafka, Airflow, Kubernetes. - Industrialisation du cycle de vie des modèles ML (de l’entraînement au monitoring en production) via des pratiques MLOps (MLflow, Kubeflow, etc.). - Automatisation de l’infrastructure et les déploiements (IaC avec Terraform/Ansible, CI/CD avec Jenkins/ArgoCD). - Garantie la qualité des données (testing, linéage, observabilité) et la performance des modèles (drift detection, monitoring). - Collaboration avec les Data Scientists, Data Engineers pour aligner les solutions techniques sur les besoins métiers. Responsabilités Clés 1. Pipeline de Données & Orchestration - Développement et optimissation des pipelines Kafka (producteurs/consommateurs, topics ) pour le traitement en temps réel. - Orchestrer les workflows avec Apache Airflow (DAGs dynamiques, opérateurs custom Python/Kubernetes). - Automatisation le déploiement et la scalabilité des pipelines sur Kubernetes (Helm, Operators, ressources custom). - Gérer les dépendances entre pipelines (ex : déclenchement conditionnel, backfills). 2. MLOps & Industrialisation des Modèles - Packager et déployer des modèles ML. - Mettre en place des pipelines MLOps : - Entraînement (MLflow, Pipelines). - Testing (validation des données, tests de modèles avec Great Expectations). - Déploiement (, A/B testing). - Monitoring (drift des features/prédictions, logs avec ELK/Prometheus). - Optimisation des performances des modèles en production (latence, ressources GPU/CPU). 3. Infrastructure as Code (IaC) & CI/CD - Définition l’infrastructure en Terraform (modules réutilisables pour Kafka, Kubernetes, IBM Cloud). - Automatisation les déploiements avec Jenkins/ArgoCD (pipelines multi-environnements : dev/staging/prod). - Configuration les clusters Kubernetes (namespaces, RBAC, storage classes, autoscale HPA/VPA). - Sécurisation des accès (Vault pour les secrets) 4. Qualité des Données & Observabilité - Implémentation des tests automatisés : - Qualité des données (complétude, cohérence, schéma) - Validation des modèles (métriques, biais). - Monitorisation les pipelines et modèles : - Métriques techniques (latence, erreurs) et métiers (précision, recall). - Alertes proactives (ex : Dynatrace ou Grafana). 5. Collaboration & Amélioration Continue Participation aux rituels Agile (refinement, retro) et promouvoir les bonnes pratiques Data/MLOps. Control des équipes sur les outils (Airflow, Kafka) et les processus (CI/CD, testing). Assurance d´une veille technologique (ex : évolutions de Kubernetes Operators pour Kafka/ML, outils comme Metaflow). Collaboration avec les Product Owners pour prioriser les besoins métiers.
Mission freelance
Ingénieur Système & Data – Monitoring / Maintenance / Big Data
Publiée le
Angular
Apache Spark
Hadoop
3 ans
Île-de-France, France
Télétravail partiel
Contexte de la mission : Au sein de la Direction des Systèmes d’Information d’un grand groupe du secteur financier, vous intégrerez une équipe en charge du pilotage des risques structurels et du reporting financier . L’objectif de la mission est de maintenir et faire évoluer une plateforme technique basée sur la technologie ClickHouse® , en garantissant sa stabilité, ses performances et sa sécurité . Missions principales : La prestation consiste à contribuer aux activités suivantes : Surveillance et monitoring de l’infrastructure ; diagnostic des incidents et anomalies Maintien en conditions opérationnelles de la plateforme (composants, performances, dette technique, montées de version) Rédaction et exécution de scripts de maintenance de l’infrastructure (équilibrage des disques, tuning système, automatisation) Application des exigences de sécurité et des procédures internes (remédiation des vulnérabilités, patching, CI/CD) Définition, estimation et planification des activités techniques Rédaction de spécifications et documentation techniques Support et accompagnement des équipes internes dans la gestion quotidienne de la plateforme
Offre d'emploi
Business Analyst IA générative et de la RAG - IDF - Plus de 9 ans
Publiée le
BI
Méthode Agile
3 ans
50k-65k €
500-550 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : 💡 Contexte /Objectifs : Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du client. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein du Lab Innovation, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Nous recherchons un business analyst ayant des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). 🤝 Les missions sont : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets • Suivre la production afin de garantir la satisfaction du client.
Offre d'emploi
Expert sécurité ZTNA ZSCALER
Publiée le
AlgoSec
zscaler
3 ans
55k-80k €
450-680 €
Guyancourt, Île-de-France
Télétravail partiel
Nous recherchons pour notre client grand compte un Ingénieur Sécurité & Réseaux ZTNA afin d’intervenir sur les activités suivantes. Missions principales : Participer au déploiement et à la mise en œuvre d’une infrastructure ZTNA de type Zscaler (ZPA) . Assurer le support niveau 3 sur tout incident opérationnel lié aux composants de la solution ( ZPA / ZIA / ZCC ). Accompagner les projets lors de l’intégration de nouvelles applications et assurer le suivi du support opérationnel auprès des équipes d’exploitation. Identifier et corriger les problèmes ou blocages liés à l’utilisation des applications au sein de l’environnement ZTNA . Garantir la mise en conformité des règles d’accès dans le portail ZTNA et sur les équipements réseau et sécurité ( firewalls, proxies, AlgoSec , etc.). Rédiger et maintenir les procédures et documents techniques à destination des équipes d’exploitation (niveaux 1 et 2). Participer à la mise en place de l’automatisation du déploiement des applications ( Terraform, Ansible, Python ). Livrables : Les livrables seront rédigés en anglais (sauf demande spécifique contraire). Comptes rendus de réunions. Documents d’architecture. Documents d’exploitation. Supports de documentation (utilisateur et/ou équipes de support). Alimentation des bases de connaissances de l’entreprise.
Mission freelance
Data Engineer Python Azure
Publiée le
Azure
Databricks
PySpark
12 mois
600-650 €
Paris, France
Télétravail partiel
DATA ENGINEER Avec des compétences sur Python/Pyspark/Databricks sous un environnement Azure Cloud. Objectifs et livrables : Nous recherchons une prestation de Data Engineering avec des compétences sur Python/Pyspark/Databricks sous un environnement Azure Cloud. Le consultant Data Engineer évoluera dans un contexte agile, en mode itératif et co- constructif, en s’appuyant sur l’intelligence collective. Le prestataire Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment : Collecter les exigences des métiers et des utilisateurs Concevoir data modeling SQL/NoSQL Concevoir les pipelines de données Mettre en production l'architecture Assurer la maintenance et l'évolution de l'architecture Expérience réussie d’au moins 6 ans en Data Engineering. Compétences requises quotidiennement : Maîtrise des technologies suivantes : Python niveau expert - (4/4) Azure Cloud niveau avancé - (3/4) Azure functions niveau confirmé - (2/4) Compétences requises : Pyspark niveau expert - (4/4) Databricks niveau expert - (4/4)
Mission freelance
Coordinateur Anomalies & Tests RUN SI
Publiée le
Data analysis
Dynatrace
JIRA
24 mois
Paris, France
Télétravail partiel
Poste : Pilotage de projet ou de programme en Assistance Technique, taux journalier Spécialités technologiques : BI, Reporting Secteur d'activité : Assurance Technologies et outils : Jira, Excel (niveau avancé), Power BI, Dynatrace Description de la mission : Renforcer la tour de contrôle opérationnelle pour un nouveau Système d’Information complexe, en assurant le suivi, l’analyse et la coordination du traitement des anomalies et incidents, en lien avec les équipes de tests, production et responsables de chantiers. La mission est opérationnelle, orientée qualité, incidents, remédiation et respect des plannings, sans rôle de PMO. Objectifs : Garantir une prise en charge efficace des anomalies détectées en tests et RUN Sécuriser les plannings de livraison via une maîtrise fine des incidents Assurer une coordination fluide entre tests, production et chantiers Fournir une vision consolidée et actionnable de l’état des anomalies Missions principales : Pilotage et suivi des anomalies : création, qualification, priorisation Analyse des incidents du jour, stock d’anomalies, criticité et impact sur livraisons Consolidation des anomalies et indicateurs dans des outils de pilotage Coordination entre tests et production, en assurant la cohérence avec le planning Coordination avec les chefs de chantiers : prise en charge, remédiation, suivi et animation d’instances Formalisation et diffusion des comptes-rendus et PV, suivi des délais de correction Production de tableaux de bord et synthèses (ex. Excel, Power BI) Animation des communautés opérationnelles (niveau 2) Livrables attendus : Analyse quotidienne des incidents Analyse consolidée du stock d’anomalies Tableaux de bord de suivi des délais, criticité, avancement Comptes rendus des instances de coordination Suivi des plans de remédiation Environnement technique : Jira pour le suivi des anomalies, Excel (niveau avancé), Power BI pour l’analyse et le reporting, Dynatrace pour la supervision et performance.
Offre d'emploi
Business Analyst Banque
Publiée le
Business Analyst
3 ans
38k-70k €
400-550 €
Île-de-France, France
Missions principales Recueillir, analyser et formaliser les besoins métiers. Animer des ateliers avec les équipes opérationnelles, IT et MOA. Rédiger les spécifications fonctionnelles détaillées. Modéliser les processus métiers (BPMN / UML). Contribuer à la définition des scénarios de tests et accompagner la recette fonctionnelle. Suivre l’avancement des développements et assurer la cohérence fonctionnelle. Participer à la conduite du changement et à la communication auprès des utilisateurs. Compétences requises Solides connaissances des métiers bancaires (back-office, paiements, crédits, conformité…). Maîtrise des méthodes d’analyse fonctionnelle (UML/BPMN). Connaissance du cycle de vie projet (Cycle en V, Agile). Capacité de rédaction, de synthèse et de communication. Bonne compréhension des architectures SI.
Offre d'emploi
Business Analyst ERP / D365 Finance
Publiée le
ERP
Microsoft Dynamics
Power Automate
6 mois
Île-de-France, France
Télétravail partiel
Nous recherchons un Business Analyst ERP Finance (Microsoft Dynamics 365) confirmé pour rejoindre une équipe IT dédiée au domaine Finance dans un environnement international. Vos missions principales : Recueillir, analyser et documenter les besoins métiers auprès des équipes Finance. Rédiger les spécifications fonctionnelles et participer à la conception des solutions. Accompagner les chefs de projet dans la mise en œuvre des évolutions ERP. Élaborer les plans de tests et piloter les UAT . Former et accompagner les utilisateurs clés. Contribuer à l’amélioration continue des processus et outils Finance. Compétences requises : Maîtrise confirmée d’un ERP Finance – Microsoft Dynamics 365 (D365) . Bonne connaissance des processus comptables et de contrôle de gestion . Connaissances en workflow / Power Automate et reporting électronique appréciées. Notions de gestion de projet (planification, suivi, coordination). Anglais professionnel impératif.
Offre d'emploi
Business Analyst – ISO 20022 (H/F)
Publiée le
Business Analyst
2 ans
40k-50k €
400-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre de projets de transformation des systèmes de paiement, nous recherchons un Business Analyst spécialisé en ISO 20022 pour rejoindre nos équipes. Missions Recueillir, analyser et formaliser les besoins métiers liés aux flux de paiements Rédiger les spécifications fonctionnelles (générales et détaillées) Accompagner la migration des formats existants vers la norme ISO 20022 Assurer l’interface entre les équipes métiers, IT et les parties prenantes externes Participer aux phases de tests (UAT), recette et mise en production Garantir la conformité réglementaire et la qualité des livrables
Mission freelance
Data Engineer Expert DataVault - Snowflake / dbt– Azure
Publiée le
Azure
Azure DevOps
DBT
3 mois
400-550 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Data Engineer avec une expertise confirmée en modélisation DataVault (compétence indispensable) ainsi qu’une maîtrise de dbt et Snowflake , dans un environnement Azure . La mission s’inscrit dans une transformation Data stratégique visant à industrialiser et standardiser les flux de données. Missions : Concevoir, développer et faire évoluer la plateforme Data basée sur Snowflake et dbt. Modéliser, structurer et optimiser les modèles DataVault (Hubs, Links, Satellites) . Industrialiser, automatiser et fiabiliser les pipelines ETL/ELT . Contribuer à la mise en place et au respect de l’approche ATDD . Assurer la qualité, la traçabilité et la cohérence des produits data. Collaborer avec les équipes Data, Engineering et Projets pour garantir la valeur des solutions livrées.
Offre d'emploi
Business Analyst Fonctionnel (F/H)
Publiée le
Business Analysis
1 an
Lille, Hauts-de-France
Télétravail partiel
Vous aimez travailler au carrefour du métier et de la tech, et vous souhaitez contribuer à la refonte d’un parcours clé pour un grand acteur du retail ? Cette mission pourrait vraiment vous plaire ! 🚀 Vos missions : - Analyser et formaliser les besoins fonctionnels pour la refonte du panier, en particulier la partie checkout . - Collaborer avec les équipes techniques et UX pour garantir la bonne implémentation des évolutions. - Participer à la rédaction des user stories et au suivi du backlog. - Assurer la qualité fonctionnelle des développements : recette, validation, suivi des corrections. - Accompagner le déploiement et l’optimisation du parcours client sur le site web.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
2371 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois