L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 731 résultats.
Mission freelance
POT9028 - Un architecte Data - Snowflake sur Massy
Almatek
Publiée le
SQL
6 mois
Massy, Île-de-France
ALMATEK recherche pour l'un de ses clients, Un architecte Data - Snowflake sur Massy CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Languages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
Mission freelance
Data Engineer Azure Databricks
CHOURAK CONSULTING
Publiée le
Azure
Azure DevOps
Azure Synapse
3 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Engineer Azure/Databricks expérimenté pour renforcer une équipe Data internationale, dans un environnement technique moderne et structuré. 🎯 Contexte de la mission : La plateforme Data est actuellement basée sur Azure Synapse (Dedicated SQL Pool) , Databricks et dbt , avec des processus CI/CD gérés via Azure DevOps . La mission s’inscrit dans une logique d’industrialisation, de bonnes pratiques et de qualité documentaire. Le client est train d'abandonner Synapse pour migrer sur Databricks. ⚙️ Vos missions principales : Concevoir, développer et maintenir des pipelines de données performants sur Azure. Intervenir sur les traitements Data Engineering en SQL et Python . Contribuer à la modélisation et à l’exposition des données pour Power BI (DAX). Appliquer et promouvoir les bonnes pratiques Data Engineering (qualité, performance, sécurité). Documenter les architectures, flux et développements. Collaborer avec une équipe internationale (échanges majoritairement en anglais).
Offre d'emploi
Ingénieur Infrastructure Cloud AWS-KBS
KEONI CONSULTING
Publiée le
Plan de reprise d'activité (PRA)
Run
Transport Layer Security (TLS)
18 mois
20k-60k €
100-500 €
Bordeaux, Nouvelle-Aquitaine
CONTEXTE Dans le cadre de sa stratégie de modernisation et de sécurisation de ses infrastructures numériques, le client souhaite s’entourer d’un Ingénieur Infrastructure Cloud AWS spécialisé dans l’intégration, l’exploitation et l’évolution de solutions Cloud sur AWS. Le profil devra être en mesure d’assister les équipes du client tant sur la conception et le déploiement de nouvelles architectures que sur la maintenance opérationnelle des services existants, dans une démarche DevSecOps, axée sur la performance, la sécurité, la fiabilité et l’optimisation des coûts L’Ingénieur Infrastructure Cloud AWS est g arant du déploiement, de la configuration et de la maintenance opérationnelle des environnements cloud AWS, il assure la disponibilité, la performance et la sécurité des services d'infrastructure. MISSIONS Participer à : Intégration et MCO Cloud A. Intégration et Déploiement • Conception d’architectures AWS sécurisées • Déploiement d’environnements • Paramétrage de services AWS • Mise en œuvre et optimisation notamment d’EKS : nodes, autoscaling, gestion des pods, namespaces, ingress, network policies, etc. • Industrialisation via IaC (Terraform) B. MCO / Run • Supervision et maintenance corrective, préventive et évolutive • Mise à jour des composants : Kubernetes, drivers, nodes, AMIs, OpenSearch, drivers DB, ALB/ingress, etc. • Gestion des incidents avec SLA détaillés proposés (détail exigé) • Monitoring / Observabilité / Alerting (technique + métier) • Gouvernance et registry d’images Docker (sécurité, scan, policy) • Gestion des coûts et optimisation (FinOps) C. Sécurité et Conformité • Zero Trust / IAM Roles / RBAC Kubernetes / Key rotation • Scan de vulnérabilités images, dependencies, clusters • Encryption au repos/en transit (KMS) • Conformité RGPD / CNIL / Cloud Act • Proposition d’architecture Security-by-Design D. Documentation et Transfert de compétences • Documentation détaillée des architectures, outils, procédures, PRA, sauvegardes, patterns, runbooks d’exploitation • Formations techniques ciblées (EKS, observabilité, pipeline CI/CD, sécurité) • Engagement sur transfert de compétences avec plan structuré livrables techniques : participer à la livraison entre autres de • Document d'architecture AWS avec schémas • Scripts Terraform documentés • Configuration complète EKS (clusters, nodes, namespaces) • Procédures de déploiement • Dashboards de monitoring Grafana/CloudWatch • Guide d'exploitation détaillé • Plan de transfert de compétences • Documentation des procédures • Étude de portabilité multicloud • Plan de réversibilité • Scripts de migration • Documentation technique de sortie • Indicateurs coûts et optimisation Compétences clés ettendues : · Déploiement et administration de services AWS core (EC2, VPC, S3, RDS, Aurora, ECS) · Gestion réseau AWS : Subnets, NAT Gateway, Transit Gateway, Route53, ALB/NLB · Administration Kubernetes/EKS : mise à jour des nodes, AMIs, drivers, gestion des pods · Mise en œuvre des politiques de sécurité réseau (SG, NACL, WAF, Shield) · Supervision et maintien en condition opérationnelle (MCO/RUN) avec gestion des SLA · Mise à jour et patching des composants (OpenSearch, drivers DB, ingress controllers) · Gestion des sauvegardes, PRA et procédures de reprise d'activité · Chiffrement des données au repos et en transit (KMS, TLS) · Automatisation via scripts (Bash, Python) et IaC (Terraform) · Rédaction de documentation technique et de guides d'exploitation
Offre d'emploi
Senior IT Production Data Analyst / Incident Manager
OBJECTWARE
Publiée le
ServiceNow
2 ans
Île-de-France, France
Contexte de la mission : Dans le cadre de l’évolution de la Group Control Tower , nous recherchons un Senior IT Production Data Analyst / Incident Manager afin d’accompagner l’exploitation et la valorisation des différents modules de la plateforme. Le consultant interviendra en étroite collaboration avec les Product Owners et les équipes techniques (Réseaux, Sécurité, Flux, Développement) afin d’analyser les données de production, améliorer les performances des environnements et identifier des leviers d’optimisation basés sur l’analyse des données. Missions principales :Analyse et optimisation des environnements de production Recommander des axes d'amélioration dans l’exploitation et la valorisation des modules de la Group Control Tower Analyser les données techniques de production afin d’identifier des leviers d’optimisation Produire des analyses et dashboards permettant d’améliorer la performance des environnements Travailler avec les Product Owners afin d'améliorer l'utilisation et la performance du produit Gestion des incidents et support opérationnel : Piloter la gestion des incidents de production Assurer le suivi du cycle de vie des incidents jusqu’au rétablissement du service Coordonner les actions avec les équipes techniques (Réseaux, Sécurité, Flux, Développement) Analyser les causes racines et proposer des plans d'amélioration Gestion des changements et support aux équipes : Garantir la bonne exécution des changements en production Assurer le suivi, le reporting et la communication autour des changements Contrôler les environnements et les changements de version Intervenir en support des équipes de développement Communication et coordination : Assurer la communication auprès des Product Owners et de la hiérarchie Participer aux cérémonies Agile Produire les reportings et tableaux de bord de suivi Environnement technique Microsoft O365 SQL Outils BI / Analytics ServiceNow Dynatrace (apprécié) Outils de monitoring et d'analyse de production Analyse de données techniques de production Statistiques appliquées aux environnements IT
Offre d'emploi
Data analyste - Montpellier / Nantes / Paris
VISIAN
Publiée le
Microstrategy
PowerBI
3 ans
47k-50k €
500-530 €
Montpellier, Occitanie
Contexte Au sein d’une Direction Data d’un grand groupe du secteur bancaire, vous intégrez un chapitre dédié à l’accompagnement des équipes métiers dans la valorisation de la donnée. Vous intervenez dans un environnement multi-sites, en lien étroit avec des squads produit, des équipes marketing et des directions métiers, avec un fort enjeu de pilotage business et de transformation digitale par la data . Missions Recueillir et analyser les besoins métiers en collaboration avec les équipes Business, PO et BA Traduire les besoins en KPI pertinents pour le pilotage des activités Exploiter les données issues du SI décisionnel / marketing Réaliser des analyses exploratoires et produire des indicateurs fiables Concevoir et maintenir des tableaux de bord décisionnels (reporting, data visualisation) Restituer les analyses aux équipes métiers et accompagner la prise de décision Présenter les résultats dans des instances (comités, réunions métiers) Participer à l’amélioration continue des pratiques data Contribuer à des sujets de tracking digital et analyse marketing (parcours utilisateurs, performance digitale) Livrables KPI métiers (définition, calcul, documentation) Tableaux de bord décisionnels Analyses exploratoires et études data Restitutions visuelles et supports de présentation Recommandations business basées sur la donnée Environnement technique Data visualisation : MicroStrategy (ou Power BI / Tableau) SQL (niveau expert) Base de données : Teradata Environnement décisionnel / data marketing
Mission freelance
Consultant Dataviz (H/F)
Insitoo Freelances
Publiée le
Microsoft Power BI
Python
Tableau software
2 ans
450-550 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Consultant Dataviz (H/F) à Lyon, France. Contexte : Le projet met à disposition des utilisateurs des fonctions de reporting et d'analyse de données. Ceci afin de consolider et restituer de manière fiable les données. Les principaux besoins sont les suivants : - Le suivi des performances - La production des indicateurs de pilotage - Le suivi du déploiement - Le suivi de la configuration et des résultats - Le suivi des interventions sur site et à distance (demandes de travaux) Le projet est une équipe d'une dizaine de personnes composée d’un chef de projet-Scrum master, d'un PO (BA), de développeurs BI, DevOps et d'un Lead Tech. L'application existe depuis plus de 6 ans, avec deux dernières années dédiées à des chantiers techniques. Nous souhaitons mener un chantier de refonte de nos dashboards pour améliorer notre application. Il faudra repartir de l'existant, le challenger avec les représentants des utilisateurs et proposer des évolutions pour mieux répondre aux besoins. Les missions attendues par le Consultant Dataviz (H/F) : Activité principale Analyser les besoins fonctionnels et techniques Localiser les données de production permettant de répondre au besoin Développer les processus d’intégration de données Modéliser et enrichir les datawarehouse (entrepôts de données) et les datamarts (magasins de données), Produire des rapports ou tableaux de bords lisibles et compréhensibles par le métier, et répondant à leur besoin Tester la qualité et la performance de ses livrables Participer aux activités et cérémonies de l’équipe de développement organisées en mode Agile Activité secondaire Mettre à jour la documentation applicative Stack technique de l'équipe Informatica, Tableau Server, Power BI, Java, Oracle/PostgreSQL, Kafka/RabbitMQ, Git, Jenkins, Ansible, idathalog
Mission freelance
Architecte Data Azure / Databricks / Snowflake — Part-time puis Full-time
CONCRETIO SERVICES
Publiée le
Azure
Databricks
Snowflake
3 mois
700-750 €
Puteaux, Île-de-France
Architecte Data Azure senior (10 ans+) recruté en mission de transformation — plateforme Databricks/Snowflake à recadrer architecturalement , équipe interne à coacher, stratégie data à 3 ans à définir. Il challenge diplomatiquement la direction technique actuelle , conçoit l'architecture cible , industrialise les pipelines en Terraform/Azure DevOps, gouverne la plateforme via Unity Catalog, et transfère les compétences sans créer de dépendance. MISSIONS PRINCIPALES Audit & Recadrage Diplomatique de l'Architecture Existante Analyser l'architecture data actuelle : identifier les problèmes structurels, les anti-patterns, les risques opérationnels Formuler les recommandations de façon constructive Convaincre le management et les équipes de changer de direction : argumentation technique, démonstration par les risques, roadmap de transition réaliste Conduire des revues d'architecture régulières pour maintenir la cohérence dans la durée Définition de l'Architecture Cible Concevoir l'architecture data cible : zones medallion (raw/processed/curated), formats (Delta Lake / Snowflake selon les cas d'usage), partitionnement, clés de distribution Définir les patterns d'intégration entre Databricks et Snowflake pour éviter les silos Produire le DAT complet, défendable en comité de direction Définir la stratégie de gouvernance : Unity Catalog, RBAC, RLS, Data Lineage, catalogue de données Industrialisation des Pipelines & DataOps Concevoir et implémenter les pipelines ETL/ELT sur Databricks et Snowflake (Snowpipe, Streams & Tasks) Mettre en place les pipelines CI/CD Azure DevOps (YAML) avec Terraform pour l'infrastructure as code Tests automatisés data : qualité, contrats, régression — culture DataOps production réelle Structurer les environnements dev/staging/prod avec isolation et promotion contrôlée Sécurité & Conformité IAM Azure, RBAC Unity Catalog, RLS Snowflake, Key Vault Conformité RGPD : pseudonymisation, chiffrement, audit trail, droit à l'oubli Coaching & Transfert de Compétences Revues de code, revues d'architecture, sessions de formation sur les patterns et standards Documentation des décisions (ADR) et bonnes pratiques pour assurer la continuité sans dépendance Montée en compétences sur Unity Catalog, Delta Live Tables, optimisation Snowflake, Terraform Stratégie Data à 3 ans Roadmap data : quick wins, transformations structurelles, jalons, dépendances Veille technologique : évolutions Databricks/Snowflake/Azure, data mesh, data fabric Cadrage des POCs nécessaires avant l'implémentation à grande échelle
Mission freelance
Developpeur Python IA
PARTENOR
Publiée le
Large Language Model (LLM)
Python
1 an
Courbevoie, Île-de-France
Dans le cadre du renforcement de notre équipe technique, nous recherchons un(e) Développeur(se) Full Stack Python Senior disposant de 6 à 7 ans d’expérience, pour intervenir sur des projets à forte valeur ajoutée, dans un environnement technique moderne et exigeant dans le secteur bancaire. Vous intégrerez une équipe à taille humaine, orientée qualité, performance et amélioration continue. En tant que développeur(se) full stack senior, vous interviendrez sur l’ensemble du cycle de vie des applications : Concevoir, développer et maintenir des applications back-end en Python Participer à la mise en place d'IA gen Participer au développement front-end Intervenir ponctuellement sur des composants Java existants (maintenance, évolution, intégration) Concevoir et consommer des API REST Participer à la mise en place et à l’amélioration des pratiques DevOps Contribuer à l’automatisation des déploiements et à la fiabilité des environnements Participer aux revues de code et aux décisions d’architecture Être force de proposition sur les bonnes pratiques (qualité, sécurité, performance) Stacks : Back end en Python Connaissance CI/CD et devops environnement sous linux JSON XML GIT / MAVEB TDD / CI Jira / Confluence
Mission freelance
Chef de Projet Marketing éditorial / d’Influence
Cherry Pick
Publiée le
Branding
Market data
Marketing
12 mois
300-380 €
Île-de-France, France
Responsabilités clés Définir la feuille de route Influence et Opérations Spéciales alignée avec les objectifs éditoriaux. Imaginer et concevoir des dispositifs d’influence et des opérations spéciales innovants à fort impact. Négocier, cadrer et piloter les collaborations avec partenaires et créateurs. Mettre en place et suivre les campagnes d’influence et opérations spéciales. Analyser les résultats, formuler des recommandations et produire des bilans numériques. Assurer une veille active sur les tendances social media, plateformes et créateurs. Maintenir à jour le planning prévisionnel des temps forts et programmes phares. Contribuer à l’amélioration du suivi des performances en collaboration avec la data. Compétences et expertises requises Expérience confirmée (4-5 ans minimum) en marketing d’influence, social media, brand content. Connaissance approfondie des médias, plateformes digitales, VOD et enjeux éditoriaux. Excellentes qualités rédactionnelles, orthographe et grammaire irréprochables. Capacité à travailler de manière transversale et en équipe. Esprit analytique et de synthèse, gestion de projet structurée et rigoureuse. Maîtrise des outils collaboratifs : Trello, Slack, Teams, Klaxoon. Connaissance d’outils d’analytics (AT Internet / Piano Analytics) appréciée.
Offre d'emploi
Chef de projet data groupe H/F
HAYS France
Publiée le
Tarare, Auvergne-Rhône-Alpes
Votre périmètre couvrira l'ensemble des directions métiers (Commerce, Finance, Supply Chain, Achats, RH, R&D…) ainsi que des filiales françaises et internationales. Vos responsabilités incluront : Piloter des projets data de bout en bout : cadrage, recueil des besoins, suivi, déploiement et mise en utilisation. Contribuer aux volets data des grands projets de transformation du groupe (ERP, CRM, WMS, outils métiers…). Assurer la coordination entre les équipes métiers, IT et data. Participer à la mise en place et à l'amélioration continue de la gouvernance de données (qualité, référentiels, catalogage). Participer à la définition, au suivi et à l'analyse des KPIs liés à la performance data. Challenger les besoins métiers et accompagner l'évolution des usages data. Les environnements techniques couvrent tout le cycle de vie de la donnée : Data Lake, Data Warehouse, Data Hub, MDM, PIM/DAM, Data Catalog, Data Quality, Data Visualisation, Data Export.
Offre d'emploi
Data Analyst Senior ( F/H) Nantes
Argain Consulting Innovation
Publiée le
Microstrategy
PowerBI
SQL
1 an
40k-45k €
500-550 €
Nantes, Pays de la Loire
🎯 Contexte Dans le cadre du renforcement des équipes Data d’un grand acteur du secteur bancaire, nous recherchons un(e) Data Analyst expérimenté(e) pour intervenir sur des problématiques de pilotage de la performance, marketing et parcours digitaux. 🚀 Mission Vous interviendrez en étroite collaboration avec les équipes métiers afin de : Recueillir et analyser les besoins métiers, les traduire en indicateurs de performance (KPI) Exploiter les données issues des systèmes décisionnels et marketing Produire et automatiser des reportings et tableaux de bord Concevoir des restitutions visuelles claires et orientées décision Accompagner les équipes dans l’interprétation des analyses Mettre à disposition et maintenir des KPI fiables et pertinents Participer à l’amélioration continue des pratiques Data 📈 Responsabilités clés Analyse et valorisation des données Définition et suivi des indicateurs business Contribution à la stratégie de pilotage et à la prise de décision 🛠️ Compétences techniques Outils de Data Visualisation : MicroStrategy (idéalement) ou Power BI / Tableau SQL avancé (expert) Manipulation de bases de données volumineuses (type Teradata ou équivalent) Bonne compréhension des environnements data et décisionnels 🤝 Compétences fonctionnelles & soft skills Très bonne communication et pédagogie Capacité à challenger les besoins métiers Esprit d’analyse et de synthèse Autonomie et rigueur Adaptabilité et sens de l’organisation ➕ Atouts Expérience dans le secteur bancaire ou financier Connaissance des problématiques marketing et digitales Connaissance d’outils de tracking (type Tag Management / Web Analytics) Mission longue durée, Nantes 3 jours de présence sur site par semaine obligatoire
Mission freelance
246239/100961/Product Owner DATA/IA Nantes
WorldWide People
Publiée le
Pilotage
6 mois
350-400 €
Nantes, Pays de la Loire
Product Owner Nous recherchons un profil Product Owner expérimenté. Product Owner en binôme/complémentarité avec un PO déjà en place sur la brique IA Gen (SG1) Activités principales attendues : Onboarding & adoption SG1, suivi satisfaction et améliorations orientées DX Cadrage & priorisation : formalisation des besoins, roadmap, arbitrages Quotas & gouvernance d’usage Déploiement/communication produit : guides, catalogue, notes de version, animation de la communauté Collaboration étroite avec le PO SG1 et les parties prenantes techniques/utilisateurs Objectifs et livrables Objectifs & enjeux de la mission : Product Owner en binôme/complémentarité avec un PO déjà en place sur la brique IA Gen (SG1) afin : Accroître la capacité de pilotage produit et accélérer l’adoption des services IA partagés au sein de la Plateforme DATA/IA Accompagner les équipes utilisatrices (prise en main, clarification des parcours d’usage, bonnes pratiques, support API) Définir/ajuster une gouvernance d’usage pragmatique, notamment les quotas par cas d’usage (volumétrie, criticité, performance) pour sécuriser la QoS et optimiser la consommation Préparer l’extension progressive de l’offre avec l’arrivée de nouveaux services partagés (OCR, Embedder, Speech2Text) : parcours, documentation, conditions d’accès, support, KPIs d’adoption. Compétences demandéesCompétences Niveau de compétence Pilotage Confirmé
Mission freelance
Lead DATA Analyst (Expertise retail &Ventes)
ARGANA CONSULTING CORP LLP
Publiée le
Agile Scrum
Azure
Big Data
2 ans
540-580 €
Paris, France
Profil recherché – Data Analyst Lead (Expert) Nous recherchons un Data Analyst Lead senior (10+ ans d’expérience) disposant d’une forte expertise en analyse et conception de solutions data, dans un environnement Grande Distribution . Le candidat devra : Posséder une expérience significative en Grande Distribution (impératif) Être capable de concevoir, challenger et sécuriser des solutions data complexes Avoir une solide maîtrise de la modélisation de données Être reconnu pour son leadership transverse Savoir accompagner et faire monter en compétence une équipe de Data Analysts Être à l’aise dans l’animation d’ateliers, de communautés et d’instances de gouvernance Comprendre les enjeux business retail et les usages métiers de la donnée 🛠 Compétences techniques attendues 🔴 Compétences impératives Connaissance opérationnelle de la Grande Distribution KPI : ventes, marge, stock, approvisionnement Pilotage de la performance magasin Logiques multienseignes Compréhension des usages métiers Analyse de données (niveau confirmé / expert) Modélisation de données (niveau confirmé / expert) Conception de solutions data SQL avancé 🟠 Compétences importantes Environnements Big Data (Databricks, Azure) Python / Scala Conception de modèles de données communs Structuration et alignement des KPI métiers Data Quality / Data Observability Documentation et bonnes pratiques de développement Expérience en méthodologie SAFe / Agile 🟢 Outils & Environnement technique SQL Databricks Microsoft Azure Python / Scala Power BI MicroStrategy PowerDesigner DataGalaxy SODA Jira 🎯 Compétences comportementales (soft skills) Leadership et posture de référent Capacité à challenger et arbitrer Excellente communication transverse (IT / Métiers) Esprit structurant et rigoureux Orientation solution et performance Capacité à vulgariser des sujets complexes
Offre d'emploi
Data Scientist / Expert IA (H/F) expérimenté – Paris – PhD
Cogniwave dynamics
Publiée le
Agent IA
Artificial neural network (ANN)
AWS Cloud
5 ans
Paris, France
Nous recherchons un(e) Data Scientist / Expert IA disposant d’un doctorat (PhD) en Machine Learning / NLP ou domaine proche, pour rejoindre nos équipes à Paris au sein de projets à forte valeur ajoutée en intelligence artificielle appliquée. Profil PHD EXPERIMENTE ayant plusieurs expériences profesionnelles concrètes CDI de préférence (ouvert aux freelance pour certaines missions) Projets sur Paris, luxembourg ou Belgique Votre rôle Concevoir, développer et industrialiser des solutions d’IA (NLP, LLM, IA générative) au service de cas d’usage métiers concrets. Participer à la définition des architectures data/IA et aux choix technologiques associés (cloud, outils, librairies). Contribuer à la mise en production des modèles (qualité, performance, robustesse) en lien étroit avec les équipes produit et métier. Intervenir sur tout le cycle de vie des projets : cadrage, POC, expérimentation, déploiement, suivi et amélioration continue. Ce que nous offrons Des projets IA de pointe, avec un fort niveau d’autonomie et de responsabilité. Un environnement stimulant, à l’interface entre R&D, innovation et enjeux business. Un cadre parisien dynamique, au sein d’équipes passionnées par l’intelligence artificielle et son impact concret. 🗼
Offre d'emploi
Architecte Data / CMDB Snow (ServiceNow)
OBJECTWARE
Publiée le
Master Data Management (MDM)
ServiceNow
3 ans
45k-95k €
540-700 €
Île-de-France, France
Prestations demandées Les Missions principales sont : -Conception et optimisation du data model des référentiels IT techniques (CIs et métadonnées) -Définition des règles d’identification et de réconciliation (IRE) au sein de ServiceNow -Spécification des sources de vérité et cartographier les flux d’alimentation des référentiels -Déploiement des stratégies de data quality : déduplication, fiabilité, couverture, obsolescence -Application des principes de Master Data Management au contexte de la CMDB -Mise en place une gouvernance claire, documentée et partageable -Collaboration étroite avec les équipes ITSM, Discovery, MDM, sécurité et infrastructure -Accompagnement des équipes en charge des découvertes et des inventaires techniques -Production de la documentation d’architecture, standards, bonnes pratiques et processus -Développement des produits de données permettant de répondre aux besoins de reporting et d'audit
Offre d'emploi
Développeur Full Stack Go/Python/Angular
AVALIANCE
Publiée le
Angular
DevOps
FastAPI
1 an
40k-65k €
400-670 €
Massy, Île-de-France
Compétences techniques requises : Concevoir et mettre en œuvre des fonctionnalités robustes et évolutives sur nos différentes plateformes. • Piloter les décisions relatives à l'architecture technique et les choix technologiques stratégiques. • Intégrer et améliorer nos solutions de services de bases de données. • Optimiser les performances, la sécurité et la maintenabilité des applications critiques. • Qualité et tests • Mettre en place et appliquer des stratégies de tests automatisés (unitaires, d'intégration, de bout en bout). • Réaliser des revues de code rigoureuses et constructives. • Respecter des normes de qualité de code exemplaires et tenir à jour une documentation exhaustive
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2731 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois