L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 947 résultats.
Offre d'emploi
🚀 Opportunité – Expert Infrastructure / Data / Middleware (Migration Big Data)
OMICRONE
Publiée le
Ansible
CFT (Cross File Transfer)
IBM DataStage
3 ans
40k-45k €
400-500 €
Île-de-France, France
Dans le cadre d’un projet stratégique de migration d’une plateforme Big Data vers une architecture classique , nous recherchons un expert technique senior capable de piloter et réaliser une migration from scratch. 📍 Localisation : Île-de-France 📅 Démarrage : ASAP 🎯 Vos missions : • Concevoir et mettre en place une nouvelle plateforme data (from scratch) • Installer, configurer et administrer les infrastructures (serveurs, bases de données, middlewares) • Mettre en place une architecture haute disponibilité (actif/passif, actif/actif) • Installer et configurer ETL DataStage et ses composants • Gérer les middlewares (MQSeries, CFT, Autosys…) • Assurer le monitoring (Dynatrace, Elastic, BAM…) • Automatiser les déploiements (Ansible, Jenkins, Git) • Mettre en place les standards sécurité (certificats, chiffrement des flux, conformité) • Documenter, former et accompagner les équipes support (N2/N3) • Participer au support de production et à l’amélioration continue 🛠 Environnement technique : • ETL : DataStage / DataStage TX • Middleware : MQSeries, CFT, Autosys • Infra : Linux, Windows, Kubernetes • Bases de données : Oracle / Exadata • Monitoring : Dynatrace, ElasticSearch • DevOps : Ansible, Jenkins, Git • Réseau & sécurité : Load balancer, DNS, WAF, certificats ✅ Profil recherché : • Expert technique confirmé en infrastructure/data/middleware • Expérience en migration de plateformes complexes • Maîtrise des architectures haute disponibilité • Forte autonomie et capacité à intervenir de bout en bout • Bonne compréhension des enjeux sécurité et performance. • Capacité à interagir avec des équipes techniques et métiers
Offre d'emploi
Chef de Programme Data & IA – Product Owner Socle Data & IA
VISIAN
Publiée le
Azure
Azure Data Factory
Data quality
1 an
40k-45k €
400-610 €
Île-de-France, France
Contexte de la mission Dans le cadre de la modernisation d’un socle Data & IA et de la mise en place d’un modèle de décentralisation gouvernée, le Chef de Programme Data & IA intervient en tant que référent transverse sur la plateforme Data & IA. Il est garant de la cohérence entre les enjeux de modernisation technique, d’adoption métier et de gouvernance de la donnée, dans un environnement Data Platform à forte ambition IA. Missions principales 1. Pilotage du programme Data & IA Définir et piloter la roadmap du socle Data & IA Prioriser les initiatives métiers et techniques Participer aux arbitrages d’investissements et au séquencement des chantiers Assurer la cohérence avec le modèle de décentralisation et la stratégie IA 2. Rôle de Product Owner plateforme Recueillir et prioriser les besoins des utilisateurs (métiers, équipes Data & IA, etc.) Piloter le backlog de la plateforme Structurer les releases et le capacity planning Suivre les KPIs de performance (qualité, adoption, stabilité, time-to-market) 3. Chantiers structurants Migration vers une architecture Data Lakehouse (type Databricks / Unity Catalog) Mise en place de la Data Quality industrialisée Déploiement de la Data Observability end-to-end Modernisation de l’offre de service de la plateforme Data 4. Coordination Data & IA Assurer l’interopérabilité entre Data, ML et IA générative Structurer la collaboration entre équipes DataOps et MLOps Préparer la plateforme aux usages IA avancés (exposition Data Products, APIs, etc.) 5. Animation et structuration Clarifier les rôles et responsabilités (RACI) Améliorer les pratiques agiles et les rituels de pilotage Accompagner la montée en maturité des équipes
Mission freelance
Data Steward
Signe +
Publiée le
BI
12 mois
400-420 €
Mérignac, Nouvelle-Aquitaine
Dans le cadre d'un programme de transformation numérique, le Data Steward interviendra sur la refonte d'un SI documentaire dans le secteur de l'énergie ( Socle GED ). Missions principales Structuration et maintien du Modèle d'Organisation des Métadonnées (MOM) Construction des glossaires métiers documentaires et modèles de données Pilotage de la qualité des données et des indicateurs associés Mise en place des lignages de données Appui à la préparation à la migration du socle GED Identification et cadrage de cas d'usages Data / IA documentaires (OCR, NLP, GenAI) Profil recherché Intitulé : Data Steward Expérience : 5 à 7 ans Compétences techniques requises Data Stewardship et gouvernance de la donnée (confirmé) Modélisation de données et maîtrise du SQL Data Management, MOM Outils : JIRA, Confluence, MEGA HOPEX, Microsoft Power BI
Offre d'emploi
Architect Data
The Yellow Office
Publiée le
Architecture
AWS Cloud
Microsoft SQL Server
6 mois
Toulouse, Occitanie
Data Architect | AWS / Snowflake | Toulouse | Freelance Nous recherchons un Data Architect expérimenté pour intervenir sur des sujets d’architecture, de migration et de structuration de plateformes data dans un environnement international. Informations mission • Localisation : Toulouse - 2 jours de TT • Contrat : Freelance • Démarrage : ASAP • Durée : Mission longue • TJM : Selon expérience • Expérience : 10 à 15 ans minimum • Anglais courant requis Votre rôle • Concevoir et faire évoluer l’architecture data globale • Définir les flux d’ingestion, de transformation et de stockage • Structurer les modèles de données et les usages analytiques • Accompagner les projets de migration (legacy vers cloud) • Garantir la performance, la sécurité et la gouvernance des données • Challenger les choix techniques et améliorer l’existant Environnement technique • AWS (S3, Lambda, RDS, Redshift…) • Snowflake • SQL / modélisation de données • Python • Stack BI (Power BI, SQL Server, SSIS, SSAS…) Profil recherché • Forte expérience en architecture data et transformation cloud • Maîtrise des environnements AWS et Snowflake • Capacité à intervenir sur des sujets complexes et structurants • Vision globale data (flux, modélisation, gouvernance) • À l’aise dans des environnements internationaux Merci de me faire parvenir votre CV à
Offre d'emploi
Expert data AWS H/F
JEMS
Publiée le
45k-65k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) Expert data AWS capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : s0hs2przfb
Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/l
WorldWide People
Publiée le
Data science
6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
Offre d'emploi
Data Product manager
ANDEMA
Publiée le
Microsoft Power BI
6 mois
40k-63k €
450-500 €
Lille, Hauts-de-France
Raison d’être du poste : Le Data Product Manager assure l'interface stratégique et opérationnelle entre les Data Owners métier et l'équipe technique Data. Sa mission est de transformer la donnée issue des différents systèmes en produits analytiques performants pour piloter l'offre, l'impact scientifique du client et les processus d'accréditations internationales. Expert en modélisation Power BI, il garantit la fiabilité des indicateurs et la sécurité des accès, tout en challengeant les besoins métiers pour maximiser la valeur ajoutée des solutions déployées Finalités et Résultats Attendus : 1. Analyse, modélisation et structuration des données Analyser les modèles de données des différentes applications contributrices (sources de données ou consommatrices/cibles de données) Modéliser les données métiers (programmes, faculté, recherche et accréditations) dans un modèle commun ‘SKEMA’, développer des data products (PowerBI et autres) répondant aux besoins métier et maintenir le modèle sémantique de l'école. Définir et gérer la gouvernance des accès et la sécurité des données (Row Level Security) pour chaque data product. 2. Conception et développement des data products Ecrire les spécifications techniques pour les opérations de manipulation de données Documenter les logiques métier de transformation Comprendre, piloter les flux d’intégration et de transformation de données (Azure Data Factory, Synapse, PowerBI [demain Fabric / Databricks ou autres]) Développer les data products en lien avec les data owners et les équipes data Tester et valider la cohérence des flux de données entre les systèmes producteurs et les data products finaux. Suivre l’adoption des data products (usage, accès …) 3. Qualité et fiabilité des données Direction des Ressources Humaines Participer aux projets de migration et de mise en qualité des données entre systèmes applicatifs afin d’identifier les impacts sur le périmètre des data products concernés. Assurer la fiabilité des données, les contrôles de cohérence et participer au support technique associé des data products. 4. Structuration de la plateforme Data Avoir une compréhension d’une data plateforme et d’une modélisation médaillon Piloter la mise à disposition de donnée dans la data plateforme pour permettre la réalisation des data products. 5. Collaboration et accompagnement Savoir faire le pont entre les équipes métiers (vulgarisation des concepts) et les équipes techniques pour l’évolution des usages data Animer la communauté des data owner de l’univers « Offre d'enseignement & Impact scientifique » Environnement data : Modélisation de donnée • Power BI • Fabrics (est un plus) • Synapse / Azure (est un plus) • Databricks (est un plus) • Git, DevOps • SQL
Mission freelance
Architect Data/ IA
Groupe Aptenia
Publiée le
Agent IA
Large Language Model (LLM)
2 ans
500-750 €
Paris, France
Venez structurer des architectures scalables, migrer vers Data Bricks et développer des agents IA from scratch dans un contexte international Maîtriser IA agentique : LLM, Transformers Google, protocoles MCP & Agent Protocols. Communiquer avec les métiers, expliquer IA/Data, animer des présentations. Collaborer en équipe agile (16+ pers.), reporting CTO/DG Expert migrations Data Bricks/DBT/GCP et un spécialiste IA agentique/LLM 3ans d'expériences minimum en architecture Anglais courant requis Bon Esprit d'équipe
Mission freelance
CONSULTANT MOE BI ORIENTE DATA
PROPULSE IT
Publiée le
BI
MOE
24 mois
275-550 €
Nanterre, Île-de-France
Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Offre d'emploi
DATA SCIENTIST
GRLCI
Publiée le
Python
Boulogne-Billancourt, Île-de-France
Nous recherchons pour l'un de nos clients un Data Scientist avec plus de 2 ans d'expérience pour renforcer une équipe data. Vous aurez pour mission : Participer à l’amélioration continue du SI : Explorer des données et production d’analyses, Identifier et mettre en œuvre des indicateurs de suivi et des solutions d’amélioration, Réaliser des Proof of Concept de solution pour des problématiques métiers ou SI. o Analyse du problème, o Identification de solutions potentielles, o Réalisation des solutions, o Vérification que le POC répond à la problématique, o Le cas échéant, aide à l’industrialisation du POC, · Veille sur les domaines de recherche en informatique, · Aide et accompagnement des équipes MOE et MOA sur les méthodes, algorithmes, technologies utilisées dans les POC.
Offre d'emploi
Data Analyst BigQuery (F/H) - Nantes
Argain Consulting Innovation
Publiée le
BigQuery
Looker Studio
SQL
6 mois
40k-45k €
400-450 €
Nantes, Pays de la Loire
Nous recherchons un Data Analyst expérimenté sur BigQuery pour intervenir sur des problématiques de fraude. Vous intégrerez une équipe data dynamique et contribuerez activement à la détection, l’analyse et la prévention des comportements frauduleux. Vos missions principales : Analyser les données afin d’identifier des schémas de fraude Concevoir et maintenir des requêtes complexes sur BigQuery Développer des indicateurs et tableaux de bord de suivi Collaborer avec les équipes métiers (risque, conformité, produit) Proposer des recommandations basées sur les analyses Participer à l’amélioration continue des outils de détection
Offre d'emploi
Développeur JAVA/Tech Lead
Signe +
Publiée le
55k-80k €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Dans le cadre du programme Data Driven Engineering (DDE), visant notamment la digitalisation des laboratoires de la DORD, vous intégrerez une organisation agile à l'échelle au sein d'une équipe en charge de concevoir et maintenir des produits digitaux dédiés à la conception des matériaux. Vos principales missions : • Participer activement aux développements en collaboration étroite avec les équipes, notamment en contribuant à la définition et à la précision des Technical Stories • Garantir la qualité et la pérennité des solutions développées en assurant les exigences non fonctionnelles (maintenabilité, évolutivité, robustesse, performance, scalabilité) tout en optimisant les coûts de fonctionnement • Accompagner les équipes de développement dans l'amélioration continue de leur productivité via l'apport de méthodes, d'outils et de bonnes pratiques • Porter les choix techniques d'implémentation et d'intégration auprès des parties prenantes internes, en collaboration avec les autres technical leaders et les architectes • Mettre en place et promouvoir les pratiques d'intégration continue ainsi que les outils nécessaires au bon déroulement des projets agiles • Assurer une veille technologique active afin d'identifier et de déployer les solutions les plus pertinentes dans le contexte du projet • Favoriser la capitalisation et la réutilisation des composants développés (bases de données, intégration de données, front-end, opérabilité) Référence de l'offre : g8hmitag6m
Mission freelance
Data Analyst Risque & Recouvrement "H/F"
Insitoo Freelances
Publiée le
Data analysis
Snowflake
SQL
2 ans
400-569 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Analyst Risque & Recouvrement "H/F" à Lille, France. Contexte : Nous recherchons un(e) Data Analyst expérimenté(e) , disposant d’une solide expertise en risque de crédit conso , capable de transformer la donnée en analyses actionnables pour les équipes métier et le management. La maîtrise de la chaîne de valeur du risque et de la chaîne recouvrement de bout en bout (de l’entrée en impayé jusqu’au contentieux / cession) est un atout clé. Les missions attendues par le Data Analyst Risque & Recouvrement "H/F" : Apporter un second regard expert sur le pilotage du recouvrement : analyse globale de la chaîne, identification de ce qui fonctionne / fonctionne moins Structurer, auditer et assembler les analyses existantes , en donnant de la lisibilité via des dashboards simples et efficaces Documentation et pédagogie auprès des équipes (risque, relation client, data) Profil recherché Profil senior (5 ans minimum) , formation Bac+5 en statistiques / data Expérience confirmée en crédit consommation / risque de crédit / recouvrement À l’aise pour interagir avec tous niveaux hiérarchiques, avec une forte capacité de pédagogie et de vulgarisation
Mission freelance
Consultant MOE MSBI socle Data ETL
PROPULSE IT
Publiée le
MOE
MSBI
24 mois
275-550 €
France
Consultant(e) MOE MSBI socle Data ETL Descriptif détaillé de la mission : - Assurer l'évolution et support des applications existantes (ETL, Bases de données, support niveau 3). Effectuer des études d'impacts et analyser les anomalies - Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. - Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. - Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. - Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). - Conseiller, proposer des axes d'amélioration, alerter si besoin. Environnement technique de la mission : - Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) - Reporting : COGNOS BI 10.2 et 11 & Tableau Durée estimée de la mission : 3 mois (renouvelables) Lieu de la mission : La Défense
Offre d'emploi
DATA SCIENTIST - Télécom - Lyon (H/F)
EASY PARTNER
Publiée le
Apache Airflow
Keras
Python
40k-54k €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste Rejoignez une entreprise innovante appartenant à un groupe de renom œuvrant dans le domaine des télécommunications. Avec des équipes basées à Lyon, notre entreprise s'attache à transformer l'expérience client à travers le développement de solutions IT innovantes pour divers opérateurs télécoms à travers le monde. Actuellement, nous sommes à la recherche d'un Data Scientist passionné pour rejoindre une équipe dynamique et motivée, composée de 9 personnes, dédiée à l'optimisation des réseaux radio du groupe. Dans le cadre de notre croissance et de l'évolution de nos projets, nous lançons ce recrutement pour soutenir nos efforts en intelligence artificielle et en data science. Missions Missions principales - Développer et mettre en œuvre des solutions IA pour résoudre des problématiques complexes dans le secteur des télécoms, incluant l'optimisation radio et le monitoring automatique. - Contribuer à l'amélioration de l'efficacité énergétique du réseau et à la création de chatbots business-orientés. Missions annexes - Collaborer avec les commanditaires pour définir les cas d’usage et s’assurer de la pertinence des applications proposées. - Coordonner les initiatives de Crédit Impôt Recherche et encadrer un alternant en Data Science. - Participer activement à l'intégration de modèles de données dans l'environnement de production et maintenir une veille technologique rigoureuse. Stack technique Compétences à maîtriser - Python 3, SQL, TensorFlow, scikit-learn, Keras, Pandas, Matplotlib, Ploty, seaborn. - Data processing avec Jupyter Lab, Airflow, Superset. Environnement technique - Bases de données relationnelles et non-relationnelles, fichiers csv et parquet, outils de gestion de projet tels que JIRA et Confluence.
Mission freelance
IAM product owner / workstream lead (Freelance)
Mon Consultant Indépendant
Publiée le
Gestion de projet
Product management
24 mois
560-590 €
Paris, France
Dans le cadre d’un programme européen stratégique autour des sujets IAM (Identity & Access Management), un grand groupe recherche un IAM Product Owner / Workstream Lead pour piloter un workstream transverse impliquant plusieurs filiales européennes. Le programme est actuellement en phase de conception et build (pas de run/maintenance), avec des enjeux importants de cadrage, priorisation, alignement des parties prenantes et structuration des processus IAM. Le périmètre couvre principalement les sujets : · IAM (sujet principal) · PKI · PAM · VDI Vos responsabilités : · Piloter le workstream IAM dans un contexte européen · Coordonner les échanges entre architectes, experts techniques et stakeholders métiers · Prioriser les sujets et sécuriser les arbitrages · Structurer et suivre roadmap, backlog, planning et reporting · Contribuer au cadrage fonctionnel de certaines briques IAM · Garantir l’alignement des différentes parties prenantes · Participer aux ateliers et instances de gouvernance · Accompagner les phases de conception et de build Expérience : · 10 à 15 ans d’expérience minimum · Expérience solide sur des programmes IAM complexes · Product Ownership · Workstream leadership · Coordination transverse · Pilotage de programmes IAM Compétences attendues : · Très bonne compréhension des environnements IAM · Bonne culture des sujets PKI / PAM / VDI · Capacité à dialoguer avec des architectes et experts techniques · Excellentes compétences de coordination et stakeholder management · Capacité à prioriser, arbitrer et structurer · Anglais professionnel impératif (environnement international). B2 minimum Important : Le poste ne nécessite pas d’être hands-on techniquement (pas de développement ou configuration attendus), mais nécessite une forte crédibilité sur les sujets IAM. Modalités : · Démarrage : ASAP · Durée : 12 mois renouvelables (vision 3/4 ans) · Localisation : Paris · Télétravail : 2 jours / semaine · Temps plein · Organisation internationale · Méthodologies agiles · Environnement complexe et transverse · Nombreux interlocuteurs techniques et métiers · Programme en forte structuration / build phase
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1947 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois