L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 463 résultats.
Offre d'emploi
Data analyst Qlik Sense H/F
Le Groupe SYD
Publiée le
Python
Qlik Sense
SQL
12 mois
40k-52k €
375-450 €
Nantes, Pays de la Loire
🌟 Dans le cadre de notre développement, nous recherchons pour l’un de nos clients à 30 minutes de Nantes (44), un Data Analyst Qlik Sense H/F . Démarrage : ASAP Contrat : CDI dans le cadre d’une pré-embauche, ou prestation (indep/portage) Lieu : 30 minutes de Nantes (44) Télétravail : 2 jours/semaine (non-négo) Dans le cadre d’un renfort d’équipe, vous interviendrez en tant que Data Analyst Qlik Sense H/F . À ce titre, vos missions seront : Projets Recueillir et analyser les besoins métiers, piloter les développements et analyser ad hoc BI & Data Créer des tableaux de bord, contribuer à la modélisation, à la gouvernance et aux outils data Accompagnement Participer au support des utilisateurs, animer le réseau et participer à la stratégie data
Mission freelance
Expert Microsoft EntraID (Azure AD) / Product Owner - Anglais courant H/F
SPIE ICS
Publiée le
Active Directory
Azure Active Directory
Intune
12 mois
400-600 €
Issy-les-Moulineaux, Île-de-France
Contexte Nous recherchons, pour notre client, un Expert EntraID afin de renforcer son équipe Identité au sein du Département Workplace. Ce poste est clé pour assurer la gestion sécurisée et efficace des identités et accès dans un environnement digital mondial. Le rôle combine expertise technique et responsabilités de product owner, avec pour mission d’optimiser et piloter la plateforme EntraID. Missions principales Concevoir, déployer et gérer l’architecture EntraID, incluant identité hybride, accès conditionnel et gouvernance. Piloter la migration des postes de travail de l’Active Directory vers EntraID. Mettre en œuvre les fonctionnalités clés : accès conditionnel, protection des identités, gestion des identités privilégiées (PIM). Définir et appliquer les politiques de cycle de vie des identités (provisionnement, déprovisionnement, RBAC). Collaborer avec les équipes cybersécurité, infrastructure et applicatives pour garantir sécurité et conformité. Assurer la supervision et l’optimisation de la plateforme EntraID. Être expert technique et product owner, définir la roadmap et proposer des améliorations. Environnement technique Microsoft EntraID (anciennement Azure AD) Active Directory on-premises Azure Microsoft Intune Defender for Endpoint Outils de sécurité Microsoft 365 Protocoles d’identité fédérée : SAML, OAuth, OpenID Connect Automatisation via PowerShell
Mission freelance
Senior Data Engineer AWS
Celexio
Publiée le
PySpark
Python
Terraform
3 mois
400-550 €
Paris, France
Nous recherchons un Lead Data Engineer chevronné pour rejoindre un acteur majeur de la Tech Parisienne. Au sein d'une équipe dynamique, votre mission sera de piloter l'acquisition de données à grande échelle et d'orchestrer une migration technologique stratégique. Votre Mission En tant que garant technique de l'acquisition de données, vous intervenez sur l'ensemble de la chaîne de valeur, du cleaning à l'enrichissement. Vos responsabilités principales incluent : Architecture & Design : Concevoir et refondre des pipelines de données robustes dans le cadre d'une migration majeure de GCP vers AWS. Ingestion Massive : Gérer l'ingestion de types de données variés (Listing, etc.) et assurer leur qualité. Optimisation : Assurer le nettoyage et l'enrichissement des données pour les rendre exploitables par les équipes consommatrices. Snowflake : Exposer les données de manière optimale. Compétences Techniques Requises Cloud : Maîtrise avancée de l'écosystème AWS (tous services) et idéalement une expérience de migration depuis GCP. Data Processing : Expertise sur Spark / PySpark pour le traitement de données volumineuses. Infrastructure : Solides compétences en Terraform (IaC). Langages : Maîtrise de Python. Data : Connaissance de Snowflake pour la partie consommation.
Offre d'emploi
Data analyste - Montpellier / Nantes / Paris
VISIAN
Publiée le
Microstrategy
PowerBI
3 ans
47k-50k €
500-530 €
Montpellier, Occitanie
Contexte Au sein d’une Direction Data d’un grand groupe du secteur bancaire, vous intégrez un chapitre dédié à l’accompagnement des équipes métiers dans la valorisation de la donnée. Vous intervenez dans un environnement multi-sites, en lien étroit avec des squads produit, des équipes marketing et des directions métiers, avec un fort enjeu de pilotage business et de transformation digitale par la data . Missions Recueillir et analyser les besoins métiers en collaboration avec les équipes Business, PO et BA Traduire les besoins en KPI pertinents pour le pilotage des activités Exploiter les données issues du SI décisionnel / marketing Réaliser des analyses exploratoires et produire des indicateurs fiables Concevoir et maintenir des tableaux de bord décisionnels (reporting, data visualisation) Restituer les analyses aux équipes métiers et accompagner la prise de décision Présenter les résultats dans des instances (comités, réunions métiers) Participer à l’amélioration continue des pratiques data Contribuer à des sujets de tracking digital et analyse marketing (parcours utilisateurs, performance digitale) Livrables KPI métiers (définition, calcul, documentation) Tableaux de bord décisionnels Analyses exploratoires et études data Restitutions visuelles et supports de présentation Recommandations business basées sur la donnée Environnement technique Data visualisation : MicroStrategy (ou Power BI / Tableau) SQL (niveau expert) Base de données : Teradata Environnement décisionnel / data marketing
Offre d'emploi
Chef de projet data groupe H/F
HAYS France
Publiée le
Tarare, Auvergne-Rhône-Alpes
Votre périmètre couvrira l'ensemble des directions métiers (Commerce, Finance, Supply Chain, Achats, RH, R&D…) ainsi que des filiales françaises et internationales. Vos responsabilités incluront : Piloter des projets data de bout en bout : cadrage, recueil des besoins, suivi, déploiement et mise en utilisation. Contribuer aux volets data des grands projets de transformation du groupe (ERP, CRM, WMS, outils métiers…). Assurer la coordination entre les équipes métiers, IT et data. Participer à la mise en place et à l'amélioration continue de la gouvernance de données (qualité, référentiels, catalogage). Participer à la définition, au suivi et à l'analyse des KPIs liés à la performance data. Challenger les besoins métiers et accompagner l'évolution des usages data. Les environnements techniques couvrent tout le cycle de vie de la donnée : Data Lake, Data Warehouse, Data Hub, MDM, PIM/DAM, Data Catalog, Data Quality, Data Visualisation, Data Export.
Offre d'emploi
Data Engineer Azure
KLETA
Publiée le
Azure
Databricks
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Azure pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur Microsoft Azure. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec Azure Data Factory, Azure Databricks, Azure Synapse, Azure Data Lake et Event Hubs. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’Azure. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
Analyste Data
CAT-AMANIA
Publiée le
Big Data
Microsoft Power BI
PySpark
2 ans
40k-48k €
400-550 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Analyste Data pour intégrer l’équipe Analyse de la Donnée. Rattaché à l’équipe, vous serez en charge de mettre en œuvre des cas d’usage métier via le croisement de données, développer et maintenir des produits DATA réutilisables, et restituer vos analyses à travers des dashboards et dataviz. Vous accompagnerez également les équipes métiers dans l’acculturation DATA tout en respectant les normes et bonnes pratiques de l’équipe. Maîtrise de Python, PySpark, SQL , expérience sur Big Data Hadoop (Cloudera) et compétences en Power BI sont requises, ainsi qu’une solide expertise en data science et analyse de données.
Offre d'emploi
Expert Cloud GCP AWS
STHREE SAS pour COMPUTER FUTURES
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
S3NS
6 mois
Lyon, Auvergne-Rhône-Alpes
Description du poste Dans le cadre de projets stratégiques de transformation Cloud, nous recherchons un Expert Cloud intervenant sur les environnements AWS, GCP et S3NS , capable d’accompagner les équipes IT et métiers sur la définition des architectures, les stratégies de migration et la montée en maturité Cloud. Vous évoluerez dans des contextes hybrides et critiques, avec de fortes exigences de sécurité, de performance et d’exploitabilité. Vos missions 1. Architecture & Stratégie de migration Accompagner la migration, l’extension ou la création d’applications sur le Cloud public du client Réaliser des études comparatives de scénarios : Cloud Public SaaS Retain (non‑migration) Sélectionner les services Cloud les plus adaptés en analysant gains, risques et impacts Analyser les impacts BUILD & RUN : Tests de performance Stratégies d’observabilité Exploitation et maintien en conditions opérationnelles Animer des workshops métiers et techniques pour la capture du besoin Concevoir des architectures Cloud multi‑niveaux : Intégration au SI existant Architecture réseau HLD (High Level Design) LLD (Low Level Design) Gérer des migrations inter‑régions Cloud 2. Acculturation Cloud & Amélioration Continue Apporter une expertise Cloud transverse auprès des équipes internes et partenaires externes Diffuser les bonnes pratiques Cloud & DevSecOps Animer ou contribuer à des actions de sensibilisation Cloud Participer activement à la communauté Cloud du périmètre Compétences requises Cloud & Architecture Expertise confirmée : AWS, GCP et S3NS Maîtrise des stratégies hybrides et multi‑cloud Connaissance des contraintes éditeurs et stratégies de mitigation associées DevOps & Plateformes Bonne compréhension des pipelines CI/CD Conteneurisation et orchestration : Docker, Kubernetes / OpenShift Sensibilité DevSecOps et automatisation Sécurité & Conformité Connaissance des normes et référentiels de sécurité applicables Intégration de la sécurité dès la conception (security by design) Outils & environnements AWS / GCP / S3NS OpenShift / Kubernetes Outils DevSecOps JIRA / Confluence
Mission freelance
BI Engineer
STHREE SAS pour HUXLEY
Publiée le
36 mois
Toulouse, Occitanie
Dans le cadre du développement et de la modernisation de ses capacités analytiques, mon client souhaite renforcer son expertise BI. La mission vise à mettre en place et structurer Power BI Service , développer des dashboards stratégiques, optimiser les modèles de données et intégrer les premières briques d'IA (Copilot, agents IA) au sein des usages Power BI. Rôle et responsabilité Le/la BI Engineer sera responsable de la configuration complète de l'environnement Power BI Service, de la création des dashboards métiers et de l'intégration des fonctionnalités avancées (DAX, modélisation, Copilot/IA). Il/elle accompagnera également la montée en maturité des équipes internes via la documentation et le transfert de compétences. Localisation : Toulouse /L'union Conditions de télétravail Pas de télétravail les 3 premiers mois de la mission Ensuite : 3 jours de présence sur site obligatoires par semaine MISSIONS Installer et configurer Power BI Service (tenant, workspaces, sécurité, accès). Connecter Power BI aux différentes sources de données internes (BigQuery, API…). Concevoir, modéliser et développer des dashboards Power BI performants et ergonomiques. Optimiser les modèles de données : Power Query , DAX , architecture et performance. Documenter les réalisations et accompagner les équipes utilisatrices. Créer ou intégrer des agents IA et mettre en place les fonctionnalités Copilot dans Power BI . COMPÉTENCES REQUISES Techniques : Maîtrise de Power BI Service, Power Query, DAX Excellente compréhension de la modélisation BI (star schema, performance) Connaissance de l'environnement Azure Bonne pratique des connexions BigQuery / bases SQL / API Personnelles : Autonomie et sens du delivery Capacité à vulgariser et travailler avec des interlocuteurs non techniques Rigueur, clarté et communication structurée QUALIFICATIONS ET EXPÉRIENCES Formation : Diplôme d'ingénieur ou équivalent Bac+5 en informatique / data / BI Expérience professionnelle : Minimum 5 ans d'expérience en tant que BI Engineer ou Data Analyst senior Expérience significative et démontrable dans la mise en place de Power BI Service Pratique confirmée des environnements cloud (Azure recommandé)
Mission freelance
Lead MLOps – Expert Python RAG Conversationnel Production (Azure Cloud – Full Microsoft)
5COM Consulting
Publiée le
Agent IA
Azure AI
IA Générative
1 an
650-700 €
Paris, France
Lead MLOps – Expert PythonRAG Conversationnel Production (Azure Cloud – Full Microsoft) Dans un contexte cabinet / finance / environnement régulé, nous recherchons un Lead MLOps senior , expert Python, ayant déjà mis en production un RAG conversationnel sur Azure . Il ne s’agit pas d’un rôle de Data Scientist ni d’un profil POC. Nous cherchons un Lead Engineering capable d’industrialiser, structurer et opérer un système GenAI en production , dans un environnement complexe et multi-acteurs. Mission Transformer un RAG conversationnel (POC ou existant) en système production-grade . Concevoir et structurer l’architecture technique sur Azure Cloud . Mettre en place les pipelines CI/CD et MLOps adaptés aux systèmes LLM/RAG. Déployer, monitorer et opérer la solution en production. Définir les standards de gouvernance IA, versioning, auditabilité et conformité. Interagir étroitement avec les architectes Azure et équipes Ops Cloud . Être force de proposition, cadrer, arbitrer et assumer les décisions techniques. Passer du POC à la PROD de manière structurée et mesurable . Expertise Azure (indispensable) Maîtrise concrète des environnements Azure : Azure OpenAI Azure AI Search / Vector Search Azure ML / Fabric / Databricks Azure DevOps / GitHub Actions AKS ou services managés Azure Monitoring Azure (logs, métriques, alerting) Capacité à dialoguer techniquement avec les architectes et équipes Ops Azure. RAG Conversationnel – Exigences Architecture modulaire (ingestion / retrieval / génération découplés) Gestion du contexte conversationnel Optimisation retrieval (chunking, reranking, hiérarchisation) Contrôle des hallucinations Monitoring qualité & performance Évaluation automatisée (LLM-as-a-Judge, métriques retrieval, A/B testing) MLOps – Cœur du rôle Pipelines CI/CD pour ML / GenAI Versioning code / data / modèles Tests unitaires & intégration Monitoring technique (latence, coûts, erreurs) Monitoring sémantique (qualité des réponses) Rollback & gestion des incidents Gouvernance IA & standards engineering Engineering Python expert (FastAPI, modularité, clean architecture) Structuration claire du code Gitflow maîtrisé Scalabilité & résilience Documentation et standards d’équipe Profil recherché 7–10+ ans d’expérience Lead MLOps / ML Engineering senior Expérience démontrée de mise en production RAG conversationnel sur Azure Habitué aux environnements cabinet / finance / régulés Leadership affirmé, capacité à s’imposer Capable de proposer des solutions pragmatiques et surtout de les exécuter Environnement de travail Localisation : Paris centre Télétravail partiel possible Environnement exigeant mais agile Culture d’équipe forte, esprit “team spirit” Mode de fonctionnement dynamique, proche d’un esprit startup Forte exposition aux enjeux stratégiques IA Ce que nous ne recherchons pas Profils orientés uniquement Data Science RAG prototype / non production-grade Expérience Azure superficielle Manque d’expérience MLOps réelle Profil incapable de structurer et gouverner
Mission freelance
DEVELOPPEUR INTRANET
SKILL EXPERT
Publiée le
Bootstrap
CSS
Groovy
1 an
450-500 €
Hauts-de-Seine, France
Description détaillée: Au sein de la [DSI] nous recherchons un Développeur Java JAHIA 7 et 8 Au sein d’une équipe dynamique, le Développeur aura pour principales missions : - D’analyser, paramétrer et coder les composants logiciels applicatifs dans le respect des normes et des procédures. - De contribuer à la conception des solutions à partir des spécifications fonctionnelles et de réaliser les développements des solutions et services au niveau de qualité attendu. - Il est responsable des tests unitaires effectués sur ses développements - De documenter les applications et interfaces développées.
Offre d'emploi
Expert Etudes IARD- SAS
KEONI CONSULTING
Publiée le
JIRA
Pilotage
SAS
18 mois
20k-60k €
100-600 €
Paris, France
Contexte : L'équipe décisionnelle et data a besoin de renforcer sa capacité à faire sur les projets du domaine Indemnisation IARD. Le parc applicatif existant est intégralement développé à l'aide des solutions de l'éditeur SAS Institute. Définition des missions : - Recueil et formalisation des besoins métiers o Compréhension des enjeux métier o Proposition de solutions en maximisant la réutilisation du patrimoine applicatif o Validation et conception fonctionnelle détaillée de la solution o Devis / planning - Conception / développement SAS o Conception technique o Réalisation, suivi et validation des développements o Mise en production o En direct ou après délégation - N2/N3 pour les incidents en production o Traitement des incidents en production et rattrapage de données o Correction des développements et re-livraison en production si nécessaire o Communication de l’avancement et de la résolution o En direct ou après délégation - Contribution au pilotage de l’activité o Reporting opérationnel o Contribution aux points métiers o Contribution au plan de charge de la structure
Offre d'emploi
Architecte Data / CMDB Snow (ServiceNow)
OBJECTWARE
Publiée le
Master Data Management (MDM)
ServiceNow
3 ans
45k-95k €
540-700 €
Île-de-France, France
Prestations demandées Les Missions principales sont : -Conception et optimisation du data model des référentiels IT techniques (CIs et métadonnées) -Définition des règles d’identification et de réconciliation (IRE) au sein de ServiceNow -Spécification des sources de vérité et cartographier les flux d’alimentation des référentiels -Déploiement des stratégies de data quality : déduplication, fiabilité, couverture, obsolescence -Application des principes de Master Data Management au contexte de la CMDB -Mise en place une gouvernance claire, documentée et partageable -Collaboration étroite avec les équipes ITSM, Discovery, MDM, sécurité et infrastructure -Accompagnement des équipes en charge des découvertes et des inventaires techniques -Production de la documentation d’architecture, standards, bonnes pratiques et processus -Développement des produits de données permettant de répondre aux besoins de reporting et d'audit
Offre d'emploi
Administrateur système Windows / Linux
Etixway
Publiée le
Active Directory
Administration linux
Administration Windows
6 mois
45k-50k €
400-450 €
Nantes, Pays de la Loire
Nous recherchons pour l'un de nos clients un administrateur système windows / Linux dans un contexte très intéressant sur le plan technique. Missions : Installation, configuration et administration des environnements windows / linux Gestion des incidents et demandes clients Assurer le Scripting via Shell Superviser et monitorer les environnements via Dynatrace et d'autres outils de supervision Rédaction de documentation technique Participation à la montée en compétence de l'équipe Veille technologique et proposition d’améliorations
Offre d'emploi
Expert en Protection des Données sur Toulouse
EterniTech
Publiée le
Architecture
Cybersécurité
Office 365
3 mois
Toulouse, Occitanie
Je recherche pour un de mes clients un Expert en Protection des Données de formation ingénieur sur Toulouse Localisation : Balma (Toulouse) Déplacement à prévoir : Paris et Lyon TT : 2j par semaine Démarrage : ASAP 13/04/26 Séniorité : 6 à 9 ans Objectif global : Accompagner les projets de sécurité des solutions collaboratives Contrainte forte du projet : Travail en collaboration avec les équipes de Porto Les livrables sont Pilotage des projets de protection de donnée / Analyse de sécurité / Gestion du RUN des solutions de protection de donnée Compétences techniques Architecture de sécurité - Confirmé - Impératif Sécurité O365/MS - Confirmé - Impératif Sécurité des données - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif) Description détaillée Le département Protection des Données recherche pour son service Sécurité Des Données un Expert en Protection des Données de formation ingénieur. Vous accompagnerez nos équipes dans la mission cruciale de protection des données sensibles du Groupe. Au sein d'une équipe pluridisciplinaire, votre mission sera d'apporter votre expertise technique sur le projet DSPM, d'assurer le maintien en condition de sécurité de la solution collaborative M365, de déployer et piloter les campagnes de revue des accès. Vous serez également en charge du fonctionnement des solutions de découverte et de gouvernance des accès aux données bureautiques, contribuant ainsi activement à la protection des données du Groupe BPCE. Vos principales activités comprendront : - Contribuer au déploiement de la solution DSPM Varonis. - Définir les règles de détection du DSPM, assurer l'analyse et le reporting des résultats. - Assurer le maintien en condition opérationnelle (MCO) de la solution DSPM. - Définir, paramétrer et améliorer les règles de sécurisation M365. - Produire des analyses de sécurité relatives aux nouveaux services M365. - Garantir la sécurité des projets intégrés au tenant M365. - Déployer la solution de revue des partages M365 (IDECSI) au sein du Groupe et piloter les campagnes de revue associées. - Assurer la maintenance et l'amélioration d'un tableau de bord présentant les indicateurs clés d'activité. - Garantir le maintien en condition opérationnelle des solutions de protection des données bureautiques. - Suivre et traiter les incidents et proposer des remédiations (N2/N3). - Rédiger des guides et des standards de sécurité. - Assurer une veille technologique proactive. Pour mener à bien cette mission, les compétences suivantes sont requises : - Maîtrise des briques d'infrastructure d'un système d'information. - Connaissances fonctionnelles et techniques approfondies sur M365, Microsoft Purview, Azure, ADRMS, DKE, SailPoint FAM, Varonis DatAdvantage, Splunk. - Compétences en développement : Powershell, PowerApp, PowerBI, Python. - Culture SSI/Cybersécurité solide, avec une expertise particulière sur les risques associés aux fuites d'information. - Des formations et certifications sur les sujets Sécurité et Cloud constituent un réel atout.
Offre d'emploi
Architecte Data Azure
KLETA
Publiée le
Azure
Databricks
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Azure pour définir et piloter l’évolution des plateformes de données cloud natives sur Microsoft Azure. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies Azure tels que Azure Data Lake, Azure Databricks, Azure Synapse, Azure Data Factory et Event Hubs, ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur Azure.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4463 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois