L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 612 résultats.
Mission freelance
101058/Data Scientist Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT)
WorldWide People
Publiée le
Data science
9 mois
400-450 €
Nantes, Pays de la Loire
Data Scientist IA GEN, Python, Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT) - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Notre client attend de la candidature que vous proposerez : - qu'elle soit autonome sur l'IA Gen (prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails) - qu'elle dispose d'une expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur) Enfin qu'elle ait : - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch
Mission freelance
🔷 Mission de DSI à temps partagé — 2 jours / semaine
Tenth Revolution Group
Publiée le
Data Lake
Microsoft Fabric
12 mois
Lyon, Auvergne-Rhône-Alpes
Groupe industriel en croissance cherche un DSI à temps partagé. Lyon / multi-sites France + Pays-Bas — 8 entités — 50 M€ de CA — Contexte LBO. Les fondations SI sont posées : ✅ Sage X3 en production depuis 2024 ✅ OroCommerce déployé début 2025 ✅ Power BI avec Fabric et data lake en cours de structuration Le chantier reste ouvert : ▶ Migration M365 ▶ Réseau WAN groupe ▶ Consolidation des filiales encore sous Sage 100 / Cegid ▶ Facture électronique avant fin 2026 ▶ Cybersécurité ▶ Plan de continuité d'activité Le tout dans un contexte de build-up actif. Ce groupe a besoin d'un DSI qui sait travailler sans armée, qui parle aux DG comme aux équipes terrain, qui pilote des prestataires sans en dépendre, et qui rend l'IT lisible pour des décideurs non techniques.
Mission freelance
Data Analyst
MLMCONSEIL
Publiée le
Apache Spark
Cloudera
Hadoop
1 an
100-460 €
Lille, Hauts-de-France
Profil Data Analyst pour un projet logistique, chargé de réaliser les spécifications et analyses de données. Exploitation et transformation des données avec Talend dans un environnement Big Data. Maîtrise des technologies Hadoop, Spark et Cloudera pour le traitement volumineux de données. Création de tableaux de bord et visualisations avancées avec Power BI pour le suivi opérationnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Offre d'emploi
Lead Developer Backend - Expertise IA & Agentique - Paris (H/F)
EASY PARTNER
Publiée le
C/C++
Data science
Go (langage)
71k-90k €
Paris, France
Contexte du poste Vous êtes passionné par l'innovation et l'intelligence artificielle ? Rejoignez une entreprise en pleine croissance spécialisée dans le développement de solutions numériques avancées, située en plein cœur de Paris. Notre département R&D, composé d'une équipe pluridisciplinaire de talents, cherche à agrandir ses rangs avec un Lead Developer Backend afin de piloter des projets stratégiques liés à l'IA et aux systèmes agentiques. Ce poste clé est à pourvoir pour renforcer notre expertise technique et soutenir notre croissance face aux défis complexes du numérique, tout en collaborant étroitement avec la direction et les équipes de base de données. Missions Missions principales - Concevoir, architecturer et implémenter notre nouveau système avec une forte composante IA. - Assurer le pilotage technique et l'accompagnement de l'équipe dans la réflexion et l'optimisation technologique. - Travailler en étroite collaboration avec la direction R&D pour aligner les objectifs stratégiques. - Prendre en charge l'intégralité du cycle de vie des projets, de la définition des besoins à leur déploiement. Missions annexes - Participer activement à la gestion des incidents et à l'amélioration continue. - Contribuer à la veille technologique et à l'innovation au sein de l'entreprise.
Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/la
WorldWide People
Publiée le
Data science
6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
Offre d'emploi
Architecte Data & IA H/F
JEMS
Publiée le
75k-90k €
Nantes, Pays de la Loire
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : y3xcipxf3f
Offre d'emploi
Ingénieur Systèmes Data
VISIAN
Publiée le
Ansible
SQL
1 an
Île-de-France, France
Missions Contrôle quotidien de la production (morning check) : En cas d’incident et/ou de retard sur les traitements et/ou les flux, s’assurer que les bonnes équipes prennent en charge le problème et que les entités sont informées dans les meilleurs délais. D’autres environnements peuvent être inclus dans cette supervision, mais la priorité reste la production. Suivi du cycle de vie des incidents de production avec les filiales, avec déclenchement d’escalade si nécessaire : Communication régulière auprès des entités pour assurer une bonne visibilité sur l’évolution des incidents. Support aux différentes équipes dans le diagnostic et la résolution des problèmes liés aux données. Préparation de rapports : incidents, événements majeurs, et propositions d’amélioration des tableaux de bord de supervision. Gestion des demandes d’infrastructure (bases de données, stockage, flux, ordonnancement, supervision, etc.) sur les différents environnements : Responsable du suivi des changements (monitoring, reporting, communication). Coordination des livraisons (toolchain CI/CD) pour les environnements de pré-production et de production, après validation des phases de test par les entités. Analyse des changements à effectuer en production et formulation de recommandations. Analyse et évaluation des incidents opérationnels afin d’optimiser les actions correctives et préventives des équipes filiales. Promotion d’une culture d’apprentissage continu et d’amélioration au sein de l’équipe. Outils IT Bonne connaissance de : Gestion des processus ITIL ServiceNow JIRA Maîtrise des éléments suivants : Logiciel Dremio (SQL) Monitoring & alerting : Dynatrace, ELK (Kibana, Grafana) Cycle de vie de développement logiciel (SDLC) Principes et rituels Agile Toolchain CI/CD (Gitlab, Jenkins, DBT…) Orchestrateurs : Autosys, Airflow, Reflections Unix (Shell) En option / appréciés : Réseaux de production (VIP, proxies, firewalls, micro-segmentation…) Outils de DataViz : Tableau, Power BI Stockage : HDFS, S3, Iceberg, Parquet
Offre d'emploi
Mission – Développeur Python
OMICRONE
Publiée le
Azure
Big Data
Python
3 ans
40k-45k €
400-500 €
Île-de-France, France
📢 Mission – Développeur Python Confirmé (H/F) Dans le cadre d’un échange avec l’un de nos clients, nous recherchons un développeur Python confirmé pour intervenir sur des projets à forte valeur ajoutée. 🔹 Missions Développement et évolution d’applications data / backend Python Participation à des projets de bout en bout (design → production) Collaboration étroite avec les équipes business, infra et sécurité Contribution à des environnements cloud Azure 🔹 Profil recherché Développeur Python confirmé (5+ ans) Expérience en environnement Azure / data / APIs Capacité à intervenir en autonomie sur des sujets end-to-end Bonne compréhension des enjeux métier Anglais professionnel requis 🔹 Conditions 📍 Localisation : paris 💼 Mission long terme (pas de mission courte) 🚫 Non ouvert à la sous-traitance
Mission freelance
Data Configurateur
Codezys
Publiée le
12 mois
320-350 €
Lille, Hauts-de-France
Objectif principal : Garantir la structuration, la fiabilité et la performance des données produits dans le configurateur afin d’offrir une expérience digitale cohérente, performante et adaptée aux marchés, clients et collaborateurs en magasins. 1. Structuration et gouvernance des données produits Collecter, analyser, structurer et actualiser les données en lien avec fournisseurs et marchés. Assurer la fiabilité, cohérence et conformité des données produits et tarifaires (prix, options, évolutions). Maintenir la qualité et la pérennité des référentiels data. Définir les règles de compatibilité entre produits. Modéliser et unifier les données multi-fournisseurs pour leur intégration. Identifier les attributs produits pour l’animation des parcours digitaux et assurer leur complétude. Documenter les règles métier et référentiels pour une bonne transmission. 2. Pilotage du peuplement et performance produit Assurer le peuplement des produits dans le configurateur. Suivre et analyser les KPI liés aux produits et parcours. Identifier des axes d’optimisation par des analyses de performance. Proposer des plans d’action en lien avec les marchés. Contribuer à l’amélioration continue de l’offre et de l’expérience utilisateur. 3. Référent fonctionnel et animation de l'écosystème Être le référent fonctionnel de la data des configurateurs. Accompagner et sensibiliser le réseau aux évolutions. Communiquer sur les mises à jour, nouvelles fonctionnalités et impacts opérationnels. Structurer et animer les canaux d’échange pour remonter les retours terrain. Qualifier, prioriser et intervenir sur les anomalies. Intégrer les retours pour améliorer parcours et règles métier. Gérer les interdépendances avec marchés, fournisseurs, développeurs. Fournir une expertise stratégique sur les sujets transverses. 4. Contribution à l’organisation produit Participer au fonctionnement en mode produit. Contribuer aux phases de recette et validation des évolutions. Assurer le pilotage en l’absence du Product Owner. Suggérer des évolutions fonctionnelles et des optimisations. 5. Cadrage et activation de parcours digitaux Participer à la conception et au cadrage des parcours digitaux. Accompagner la digitalisation des parcours pour les marchés. Challenger les prérequis fonctionnels et data nécessaires. Paramétrer les outils de configuration des parcours clients et collaborateurs. Suivre la performance des parcours et proposer des ajustements.
Mission freelance
Consultant Sales Ops / CRM Operations Salesforce (H/F)
Freelance.com
Publiée le
CRM
Data quality
Salesforce
3 mois
400-600 €
Paris, France
Dans le cadre du renforcement d’une équipe Sales / Investor Coverage évoluant dans un environnement international , nous recherchons un Consultant Sales Ops / CRM Operations orienté exécution et optimisation des outils commerciaux. Le consultant interviendra comme référent opérationnel CRM et outils go-to-market , avec un focus fort sur Salesforce , la qualité de la donnée et l’accompagnement des équipes commerciales au quotidien. L’objectif de la mission est de fiabiliser l’existant, améliorer l’adoption des outils et optimiser les workflows commerciaux , sans refonte complète du CRM. Missions principales Administrer, structurer et optimiser l’environnement Salesforce Garantir la qualité, la cohérence et la complétude des données CRM Structurer et fiabiliser les pipelines commerciaux Optimiser les workflows liés à la prospection, au lead management et au suivi des opportunités Mettre en place et améliorer les reportings, dashboards et KPI commerciaux Gérer le backlog des demandes métiers et suivre les évolutions livrées Assurer la coordination entre le CRM et les autres outils de l’écosystème commercial Accompagner les équipes dans l’usage quotidien des outils Identifier les irritants opérationnels et proposer des améliorations concrètes Assurer la documentation, la traçabilité des changements et la mise à jour des procédures Participer à la montée en compétence des utilisateurs Le poste comporte une forte dimension de support de proximité entre les équipes métier, la donnée et les outils digitaux .
Mission freelance
Architecte d’Entreprise Senior
ABSIS CONSEIL
Publiée le
API
AWS Cloud
Batch
1 an
740 €
Île-de-France, France
Dans le cadre d’un important programme de transformation digitale , nous recherchons un Architecte d’Entreprise Senior (8+ ans d’expérience) pour accompagner les projets d’évolution du SI, de la phase d’opportunité jusqu’à la mise en production. Objectifs de la mission L’architecte interviendra dans le cadre d’un dispositif structuré d’architecture, incluant processus de gouvernance, revues techniques, rituels transverses et outils de capitalisation. La mission vise principalement à : Produire les analyses d’architecture en phase amont. Formaliser les impacts fonctionnels, applicatifs et data. Garantir la cohérence des évolutions du SI. Accompagner les équipes métiers et IT dans les choix structurants. Assurer la capitalisation dans les référentiels internes. Livrables attendus Diagnostic Express d’Architecture (DEX) destiné aux instances IT. Dossier d’Architecture Fonctionnelle (DAF) incluant état des lieux, scénarios et cibles d’architecture. Contribution à la mesure de conformité en production . Mise à jour des référentiels et dictionnaires de données internes.
Mission freelance
Data Analyst Professional
Codezys
Publiée le
Data visualisation
Python
SQL
12 mois
310-400 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Le projet est réalisé pour le compte d’un client resté anonyme, permettant de préserver la confidentialité de ses activités et de ses données stratégiques. La mission s’inscrit dans un environnement où l’analyse précise des données joue un rôle clé pour orienter la prise de décision et optimiser les processus internes. Le candidat doit disposer d’une expérience professionnelle comprise entre 2 et 5 ans, ce qui garantit une maîtrise suffisante des techniques d’analyse tout en étant capable de s’adapter rapidement aux spécificités du projet. Objectifs et livrables Collecte de données : Recueillir des données provenant de diverses sources, telles que bases de données internes, fichiers Excel, API tierces ou autres systèmes d’information. Assurer la qualité et l’intégrité des données dès la phase de collecte pour faciliter leur utilisation ultérieure. Visualisation et analyse : Développer des tableaux de bord interactifs et des visualisations dynamiques à l’aide d’outils comme Power BI, Tableau ou QlikView. Effectuer des analyses exploratoires pour détecter des tendances, anomalies ou opportunités spécifiques, conformément aux enjeux fixés par l’entreprise. Extraction et structuration des données : Mettre en œuvre des techniques avancées de traitement de données pour extraire des informations pertinentes. Organiser ces données sous des formats structurés, tels que des bases de données relationnelles ou des modèles multidimensionnels, en utilisant des langages comme SQL ou Python. Construction de modèles et rapports : Développer des modèles analytiques robustes, notamment des modèles prédictifs ou descriptifs, adaptés aux besoins métiers. Produire des rapports standardisés et des outils autonomes destinés à une communauté d’utilisateurs élargie, facilitant la prise de décision collective. Ce projet exige une communication fluide avec les parties prenantes, une capacité à documenter clairement le processus de traitement des données, ainsi qu’une vigilance constante pour garantir la pertinence et la qualité des livrables, dans le respect des délais impartis.
Offre d'emploi
Responsable Data Platform
Recrut Info
Publiée le
Amazon Redshift
AWS Cloud
Data governance
55k-65k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au CTO, vous encadrerez un Data Engineer et prendrez la responsabilité de la plateforme data et des initiatives d’ingénierie data. Dans un contexte cloud-first (AWS) et de structuration de la stratégie data, votre rôle consistera à définir l’architecture cible, organiser les flux de données et piloter la mise en œuvre des solutions permettant de soutenir les enjeux métiers et business. À ce titre, vos principales missions seront les suivantes : - Définir et piloter l’architecture data cible (Data Lake, Data Warehouse, flux batch et temps réel). - Aligner les initiatives data avec les priorités business et métier, et structurer la roadmap associée. - Concevoir et faire évoluer la plateforme data et les solutions techniques sous-jacentes dans un environnement cloud AWS. - Définir les standards d’ingestion, de transformation et demodélisation des données (dbt pour la transformation notamment). - Mettre en place les mécanismes d’exposition des données via APIs ou services internes/externes. - Structurer les pratiques de gouvernance de données, data quality et data lifecycle. - Superviser les plateformes permettant le déploiement des cas d’usage Data Science et IA. - Piloter les partenaires et prestataires intervenant sur les projets data et garantir la qualité des livrables. - Assurer le suivi des coûts de la plateforme data et optimiser l’usage des ressources cloud (FinOps). - Contribuer aux réflexions autour de l’évolution de l’écosystème data, notamment sur les solutions d’intégration (ex. iPaaS). Le poste combine vision d’architecture, capacité technique et pilotage, avec une part d’exécution technique mais une orientation progressive vers le pilotage et la structuration. Environnement technique : Python (requis), AWS (souhaité), Make (souhaité), RedShift (souhaité), PostgreSQL (souhaité), GitHub Actions (souhaité), SQL (requis), NOSQL (requis), Amazon S3 (souhaité), AWS Lambda (souhaité), Amazon ECS (souhaité), R (souhaité),
Offre d'emploi
Architecte Technique Data et IA H/F
JEMS
Publiée le
75k-90k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : 18wu0vbm3j
Mission freelance
Azure Platform Engineer – Data & Analytics
Codezys
Publiée le
Ansible
Azure
Azure Data Factory
6 mois
370-460 €
Paris, France
Contexte de la mission Cette équipe est responsable de la conception, du déploiement et de la maintenance d'une plateforme data cloud utilisée à l’échelle du groupe. Cette plateforme doit répondre à des enjeux majeurs tels que : la scalabilité la gouvernance la sécurité la performance Actuellement, l’environnement est principalement orienté vers Azure, avec une interopérabilité multi-cloud envisageable. Objectifs et livrables Infrastructure & Cloud (Azure) Développement et maintenance d’infrastructures en utilisant Terraform, Bicep et ARM Déploiement et gestion des ressources Azure : Azure Data Lake Storage (ADLS Gen2) Azure Storage (Blob) Azure Virtual Network, NSG, Private Endpoints Gestion des environnements cloud (DEV, TEST, PROD) Data Platform Administration et exploitation d’un Data Lake Azure Gestion des accès, de la gouvernance et de la sécurité des données : Azure AD / RBAC Politiques / Purview pour la gouvernance data Optimisation des performances et des coûts CI/CD & Automatisation Conception et maintenance de pipelines CI/CD avec Azure DevOps et GitHub Actions Automatisation des déploiements (infrastructure, données et services) Développement & APIs Création de microservices en Python Développement de REST APIs et architectures événementielles Intégration avec les services Azure tels que Functions et Event Hub Containers & Orchestration Déploiement de services containerisés via : Azure Kubernetes Service (AKS) Azure Container Apps / Azure Container Instances Monitoring & Fiabilité Mise en place de solutions de supervision telles que Azure Monitor, Log Analytics et Application Insights Suivi de la performance et de la disponibilité des services Collaboration Rédaction de documentation technique Interaction avec les équipes data, développement et métier Participation aux cérémonies Agile
Offre d'emploi
Architecte Solution Finance
ASTRELYA
Publiée le
ArchiMate
Modélisation
TOGAF
Montreuil, Île-de-France
Astrelya est un cabinet de conseil franco‑suisse en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Composé de 300 experts passionnés, le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, du cadrage à la mise en production, avec une expertise reconnue en Data/IA, Cloud, DevOps et méthodes agiles. Notre modèle repose sur la proximité, la confiance et une culture humaine forte, où les collaborateurs sont au cœur de la création de valeur. Dans le cadre de ses activités, notre client recherche un Architecte Solution disposant d’une expertise confirmée en architecture d’entreprise. Le client évolue dans un environnement exigeant et contribue activement à l’international au sein de l’Open Group, notamment sur les sujets liés à l’architecture d’entreprise. Le niveau d’expertise attendu est donc élevé. Concevoir des architectures solutions robustes et évolutives Assurer l’alignement des solutions avec l’architecture d’entreprise Modéliser les architectures à l’aide du langage ArchiMate Appliquer les méthodes et cadres d’architecture TOGAF Participer à la définition des standards d’architecture Collaborer avec les équipes techniques et métiers Garantir la qualité, la cohérence et la pérennité des solutions proposées Contribuer à l’amélioration continue des pratiques d’architecture
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2612 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois