L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 362 résultats.
Offre d'emploi
Data Analyst experimenté -Nantes (F/H)
Argain Consulting Innovation
Publiée le
Microsoft SQL Server
SQL
Teradata
9 mois
40k-45k €
400 €
Nantes, Pays de la Loire
Nous recherchons un(e) Consultant(e) Data orienté(e) à la fois Business et Technique. 🎯 Missions Assurer la communication avec les entités métiers clientes et leurs filiales ayant des besoins en jeux de données Promouvoir l’offre de service et élaborer les supports/éléments de communication associés Mettre en place et piloter les KPI de performance du service, ainsi que les plans d’amélioration continue Recueillir et analyser les besoins clients (expression de besoin, étude d’impacts) Accompagner les métiers dans l’identification et la formalisation des données nécessaires, en conformité avec les règles de gestion applicables Définir et mettre en œuvre les contrôles d’exploitabilité et d’accessibilité des données, en coordination avec les équipes en charge de la gouvernance et les instances d’usage Identifier les entrepôts ou sources de données pertinents en fonction des besoins Structurer la documentation des différents dossiers dans une logique de capitalisation et de transmission Organiser la recette des jeux de données avec les métiers et les utilisateurs Contribuer à l’industrialisation de certains cas d’usage métiers
Mission freelance
Data Quality Manager
CAT-AMANIA
Publiée le
Apache Spark
AWS Cloud
Collibra
1 an
100-490 €
Lille, Hauts-de-France
VOS RESPONSABILITÉS PRINCIPALES Recueillir et évaluer les besoins en matière de qualité des données Accompagner et organiser des ateliers avec les data owners pour comprendre le cycle de vie des données et collecter les exigences en matière de qualité des données (règles, impacts de la non-qualité, parties prenantes, etc.) Interagir et se coordonner avec les autres parties prenantes du projet (Data Steward, Data Engineer,…) pour s’aligner sur les contrôles Vérifier et valider la pertinence des règles de qualité des données et leur faisabilité Documenter les règles de qualité dans le catalogue de données (Collibra) Mettre en oeuvre les normes et politique de qualité des données sur votre périmètre pour garantir l'opérabilité des données tout au long de leur cycle de vie dans l'entreprise Concevoir et mettre en œuvre des outils de contrôles et de visualisations de la qualité des données, y compris des alertes pour détecter les erreurs et les incohérences Mettre en œuvre et animer les processus de remédiation afin d’assurer l’amélioration continue du dispositif de qualité des données Développer et appliquer des stratégies pour l'amélioration continue de la qualité des données, en collaboration étroite avec les producteurs de données et les équipes techniques. Sensibiliser les parties prenantes internes à l'importance de la qualité des données, en les formant aux bonnes pratiques et en assurant un suivi régulier. Implémenter des outils pour automatiser les tâches de contrôle et de correction des données. Contribuer et participer activement à la communauté des Data Quality Manager
Mission freelance
Data Engineer Azure / Databricks
Signe +
Publiée le
Snowflake
12 mois
360-440 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Contexte Dans le cadre de la structuration de la plateforme data, nous recherchons un Data Engineer pour concevoir, développer et industrialiser les pipelines de données au sein d’une architecture moderne de type Lakehouse sur Azure. Le rôle est orienté build & delivery, avec une forte dimension technique. Missions principales Concevoir et développer des pipelines ELT robustes et scalables Intégrer, transformer et fiabiliser des données issues de multiples sources Développer des traitements distribués en PySpark sur Databricks Orchestrer les flux via Azure Data Factory Optimiser les performances, la qualité et la maintenabilité des jobs Mettre en place des contrôles de data quality, monitoring et alerting Participer à la modélisation des datasets (modèle dimensionnel / star schema) Documenter les flux (lineage, métadonnées, bonnes pratiques) Collaborer avec les équipes BI / Data Analyst / métiers (Power BI) Stack technique Databricks (Spark / PySpark) Azure Data Factory SQL avancé Python Power BI (consommation et compréhension des besoins BI) Azure Data Lake / Lakehouse Compétences requises (must-have) Très bon niveau SQL Python / PySpark confirmé Expérience concrète sur Databricks Expérience Azure Data Factory Conception de pipelines ELT en production Modélisation dimensionnelle Bonne culture performance & fiabilité data Compétences appréciées (nice-to-have) Data quality / data governance / lineage Data Vault Azure Logic Apps Infrastructure as Code (Terraform, CI/CD) Expérience Snowflake ou autres plateformes cloud data Bonne compréhension des enjeux BI / Power BI Profil recherché 3 à 7+ ans d’expérience en Data Engineering À l’aise en environnement cloud Azure Capacité à coder proprement et à industrialiser Esprit produit / orienté valeur métier Autonome, force de proposition
Offre d'emploi
Expert Data Security (H/F)
KORAY-IT
Publiée le
Sécurité informatique
12 mois
65k-75k €
600-650 €
Île-de-France, France
Vos missions principales : Expertise technique avancée sur les solutions Symantec (SEP, DLP) Expertise sur les solutions Trend Micro (APEX One, Deep Security, DDEI) Expertise sur Active Identity (HID) Expertise sur Fortra – ICAP Gateway Administration et évolution de l’offre Data Security Participation aux projets d’ automatisation et de fiabilisation Support technique niveau 3 Rédaction de dossiers et d’avis techniques Élaboration de roadmaps sécurité Présentations techniques auprès des équipes projets et opérationnelles Participation aux astreintes et interventions HNO
Offre d'emploi
Data Analyst Nantes (H/F)
TimTek
Publiée le
Microstrategy
PowerBI
1 an
Nantes, Pays de la Loire
TimTek est une entreprise à mi-chemin entre l'incubateur et l'ESN, dont les objectifs sont multiples. Tout d'abord, nous développons une activité de prestation intellectuelle dans le domaine IT autour de 4 sujets : Développement : Java, PHP, C#, Javascript et tous leurs frameworks. Infrastructure : Cloud, Devops, Architecture, Administration systèmes et réseaux. Data : Business Intelligence, Data Science, Big Data, Data Analysis, Data Engineering. Fonctionnel : Gestion de projet, Consultant fonctionnel Dans un second temps, nous réinvestissons l'ensemble des bénéfices afin d'autofinancer le lancement de projets digitaux innovants qui ont un rapport avec la RSE (intérêt général, écologie ou autre). Ainsi, nous rassemblons aujourd'hui une communauté de 50 consultants entreprenants et notre objectif est de continuer cette croissance en vous présentant des projets de qualité. Aujourd'hui, nous sommes à la recherche d’un Développeur Data Analyst (H/F) pour intégrer notre équipe de Nantes. Vos missions seront de : Collaborer étroitement avec les Business Analystes afin d’identifier les besoins Data du métier grâce à des ateliers d’affinage Collecter et exploiter les données pour les restituer sous forme d’indicateurs ou de Tableaux de bord, et ainsi contribuer et conduire les analyses Data mises en lien avec les problématiques métiers Présenter les résultats aux équipes métiers Véhiculer auprès des métiers le cadre de gouvernance Data (Data Management, Data Privacy…) de l’entreprise, en portant les messages et expertises autour du Digital Contribuer à l’évolution des pratiques de l'équipe dans une logique d’amélioration continue
Offre d'emploi
Data Analyst Vannes (H/F)
TimTek
Publiée le
Microstrategy
PowerBI
1 an
Vannes, Bretagne
TimTek est une entreprise à mi-chemin entre l'incubateur et l'ESN, dont les objectifs sont multiples. Tout d'abord, nous développons une activité de prestation intellectuelle dans le domaine IT autour de 4 sujets : Développement : Java, PHP, C#, Javascript et tous leurs frameworks. Infrastructure : Cloud, Devops, Architecture, Administration systèmes et réseaux. Data : Business Intelligence, Data Science, Big Data, Data Analysis, Data Engineering. Fonctionnel : Gestion de projet, Consultant fonctionnel Dans un second temps, nous réinvestissons l'ensemble des bénéfices afin d'autofinancer le lancement de projets digitaux innovants qui ont un rapport avec la RSE (intérêt général, écologie ou autre). Ainsi, nous rassemblons aujourd'hui une communauté de 50 consultants entreprenants et notre objectif est de continuer cette croissance en vous présentant des projets de qualité. Aujourd'hui, nous sommes à la recherche d’un Développeur Data Analyst (H/F) pour intégrer notre équipe de Vannes. Vos missions seront de : Collaborer étroitement avec les Business Analystes afin d’identifier les besoins Data du métier grâce à des ateliers d’affinage Collecter et exploiter les données pour les restituer sous forme d’indicateurs ou de Tableaux de bord, et ainsi contribuer et conduire les analyses Data mises en lien avec les problématiques métiers Présenter les résultats aux équipes métiers Véhiculer auprès des métiers le cadre de gouvernance Data (Data Management, Data Privacy…) de l’entreprise, en portant les messages et expertises autour du Digital Contribuer à l’évolution des pratiques de l'équipe dans une logique d’amélioration continue
Offre d'emploi
Data Analyst Montpellier (H/F)
TimTek
Publiée le
Microstrategy
PowerBI
1 an
Montpellier, Occitanie
TimTek est une entreprise à mi-chemin entre l'incubateur et l'ESN, dont les objectifs sont multiples. Tout d'abord, nous développons une activité de prestation intellectuelle dans le domaine IT autour de 4 sujets : Développement : Java, PHP, C#, Javascript et tous leurs frameworks. Infrastructure : Cloud, Devops, Architecture, Administration systèmes et réseaux. Data : Business Intelligence, Data Science, Big Data, Data Analysis, Data Engineering. Fonctionnel : Gestion de projet, Consultant fonctionnel Dans un second temps, nous réinvestissons l'ensemble des bénéfices afin d'autofinancer le lancement de projets digitaux innovants qui ont un rapport avec la RSE (intérêt général, écologie ou autre). Ainsi, nous rassemblons aujourd'hui une communauté de 50 consultants entreprenants et notre objectif est de continuer cette croissance en vous présentant des projets de qualité. Aujourd'hui, nous sommes à la recherche d’un Développeur Data Analyst (H/F) pour intégrer notre équipe de Montpellier. Vos missions seront de : Collaborer étroitement avec les Business Analystes afin d’identifier les besoins Data du métier grâce à des ateliers d’affinage Collecter et exploiter les données pour les restituer sous forme d’indicateurs ou de Tableaux de bord, et ainsi contribuer et conduire les analyses Data mises en lien avec les problématiques métiers Présenter les résultats aux équipes métiers Véhiculer auprès des métiers le cadre de gouvernance Data (Data Management, Data Privacy…) de l’entreprise, en portant les messages et expertises autour du Digital Contribuer à l’évolution des pratiques de l'équipe dans une logique d’amélioration continue
Mission freelance
Senior Google Workspace, Data & IA
OPTIPARK
Publiée le
BigQuery
Google Cloud Platform (GCP)
Google Sheets
1 an
100-470 €
Niort, Nouvelle-Aquitaine
Dans le cadre d’un programme stratégique de transformation digitale, nous recherchons un Expert Senior Google Workspace / Data & IA capable d’assurer l’interface entre l’expertise technique et les enjeux métiers. Il s’agit d’un rôle hybride à forte valeur ajoutée, combinant : Administration avancée de l’environnement Google Workspace Exploitation et analyse des données d’usage (BigQuery / Looker) Développement de solutions d’automatisation (AppSheet / Apps Script) Pilotage et diffusion des usages IA (Gemini, adoption, innovation) Accompagnement des directions métiers dans la transformation numérique Vos missions 🔹 Volet Data & Analytics Concevoir et maintenir des modèles LookML complexes Développer des dashboards stratégiques (adoption, performance, indicateurs RSE) Exploiter les données via BigQuery (SQL avancé) Structurer les tables et optimiser les coûts de calcul et stockage Définir des indicateurs liés à la sobriété numérique et à la qualité de vie au travail 🔹 Volet IA Générative & Innovation Contribuer à la structuration d’un Centre d’Expertise IA Être référent technique et fonctionnel sur les solutions IA (Gemini) Animer une communauté d’ambassadeurs IA Identifier et déployer des cas d’usage métiers à forte valeur ajoutée Concevoir supports de formation et référentiels de prompts 🔹 Volet Google Workspace (Technique & Fonctionnel) Administrer et sécuriser l’environnement Google Workspace (DLP, Context-Aware Access) Développer des applications métiers via AppSheet Créer des automatisations via Google Apps Script Accompagner la migration d’Excel/VBA vers Google Sheets / BigQuery Assister le Product Owner dans la roadmap, les User Stories et la conduite du changement
Offre d'emploi
Ingénieur cloud expérimenté F/H
COEXYA
Publiée le
40k-45k €
Saint-Didier-au-Mont-d'Or, Auvergne-Rhône-Alpes
CONTEXTE Coexya innove avec son offre cloud souveraine 100% française, "Le Cloud by Coexya".L'offre « Cloud by Coexya » s'articule autour de plusieurs activités : - Hébergement et infogérance dans le cloud des applications réalisées par Coexya. - Accompagnement DevOps des équipes de réalisations. - Edition d'une plateforme de supervision et de centralisation de logs. Dans le cadre du développement de cette offre, nous recherchons un DevOps expérimenté F/H pour rejoindre notre équipe ! CE QUE L'ON VOUS PROPOSE Vous intégrerez notre équipe Le Cloud by Coexya en tant que responsable technique de l'équipe. Sous la responsabilité du directeur technique de l'entité, vous participerez à nos projets de développement et d'intégration Cloud depuis la conception jusqu'à la gestion des environnements de production. A ce titre, vos missions sont les suivantes : - Participer à la conception/architecture des projets- Développements de l'outillage transverse - Mettre en place et améliorer les procédures d'automatisation et d'orchestration sur les projets - Implémenter les processus de packaging/livraison et déployer les environnements. - Participer aux activités de gestion de nos plateformes Cloud (jusqu'en production) et amélioration continue - Participer aux phases d'avant-vente pour la définition technique des solutions proposées - Veille technologique : mettre en place et diffuser les dernières technologies sur les projets
Mission freelance
[LFR] Ingénierie Réseau et Sécurité, Sénior à Guyancourt - 1268
ISUPPLIER
Publiée le
10 mois
300-495 €
Guyancourt, Île-de-France
Fiche de mission : L’équipe Ingénierie Intégration Réseau est une des équipes réseau. Ce domaine d'expertise opère sur les infrastructures réseau, sécurité & Internet. Dans ce contexte, l’expertise intégrera une équipe (squad) en charge de piloter et de traiter les sujets sur la partie firewalling et microsegmentation. Il devra ainsi : • avoir une expérience significative sur des activités de production dans des environnements complexes ; • être capable de réaliser des analyses/troubleshoots sur des incidents de niveau 3 ; • être en capacité d'accompagner/assister notre équipe d'exploitation de niveau 2 ; • prendre en charge divers types de projets : accompagnement d'évolution des différentes filiales du client, traitement des obsolescences matérielles et logicielles, gestion de vulnérabilité,.. le tout en prenant en compte les contraintes de production d'un milieu bancaire. Descriptif de la mission : Projets : gestion de projet technique, proposer des solutions répondant au besoin (économiquement viables), réaliser des devis (cotation JH) et configurations associées. Gestion du MCO/MCS de l’environnement Firewalling ; Support Niveau 3 ; Livrables de documents d’architecture, exploitation et autres procédures. Astreintes de fonctionnement et interventions en HNO à prévoir. Aptitudes : Bonne assise technique de l’environnement Firewalling. Compétences Techniques: Expertise Firewall Fortinet, Palo Alto, Checkpoint, Forcepoint. Micro-segmentation : Plateforme VMWare NSX-T, Guardicore. Environnement Kubernetes: CNI / Plugin Cilium Sécurité (Reverse Proxy, Proxy, WAF, etc.) Réseau (LAN, WAN, MPLS, VPN) : Maitrise des protocoles et fonctionnement du réseau Switching, load balancer, routeurs … Scripting et automatisation. Gestion Certificats. Process ITIL. Notions PCI/LPM. Modalités : Niveau anglais : professionnel Expérience du profil recherché : Senior. Localisation : SQY ou Rodez. Début : ASAP Modalités : 3jrs sur site / 2 jours hors site
Offre d'emploi
Program IT Lead - R&D Cloud, Data & AI
Groupe Aptenia
Publiée le
AWS Cloud
Azure
Cybersécurité
6 mois
Occitanie, France
Program IT Lead pour un programme R&D Data & IA d’envergure. Pilotage d’une transformation Cloud & Data visant à accélérer les usages IA en recherche médicale et biostatistique. Construction et opération d’un Cloud-as-a-Service industrialisé, sécurisé, observable et conforme aux exigences réglementaires. Gouvernance des architectures, du delivery et des coûts via une démarche FinOps en environnement multi-cloud. Rôle d’interface entre IT, data, sécurité et métiers R&D pour transformer des besoins complexes en solutions robustes, audit-ready et scalables.
Mission freelance
Financial Project Management Data Feeding
STHREE SAS pour HUXLEY
Publiée le
8 mois
700 €
France
Au sein de la Direction Financière , le département Financial Data Integrity (FDI) a pour mission de contrôler les données nécessaires pour produire les comptes ainsi que l'ensemble des indicateurs et reporting réglementaires (sous la responsabilité de la Direction Financière). La mission se déroulera au sein du service "Projects" du département FDI et visera à renforcer l'équipe existante sur les projets en lien avec l'alimentation, le contrôle des données et l'optimisation des processus de production du département. L'équipe "Projects" est en charge d'accompagner la transformation du département qui porte sur la refonte des systèmes d'information de la DF, sur les projets d'alimentation au niveau du groupe et plus globalement sur la transformation de nos processus de contrôles et de sourcing. Les missions consistent à : Accompagner les équipes de production FDI dans leurs transformations et notamment sur les projets d'optimisation de leurs processus : * Rédiger les notes de cadrage et les EdB, en relation avec les Métiers concernés. * Proposer des solutions et suivre les travaux des équipes IT * Organiser et animer les réunions en lien avec le projet (comités, ateliers, ...) * Prendre en charge les recettes et tests utilisateurs (plan et cahier de recette, PV, …) Change management : Accompagner les équipes de production dans la mise en place des nouveaux processus et les proposer les adaptations nécessaires. Pour la mission le consultant devra justifié de formation supérieure orientée finance/risques, avec une expérience dans la gestion et le pilotage de projets dans le domaine bancaire. Compétences requises : A l'aise pour requêter dans des datasets complexes, avoir une véritable appétence pour les Systèmes d'information de l'univers bancaire. Des connaissances sur les produits/instruments financiers seraient un plus. Capacité d'adaptation L'organisation, la rigueur et les capacités d'analyse seront également sollicitées. Aisance rédactionnelle. Compétences techniques : - Familiarisation avec les bases de données : requêtage SQL - PowerBI / easyMorph.
Offre d'emploi
Chef de projet Data (Expert Power BI)
AVALIANCE
Publiée le
Agile Scrum
Alteryx
DAX
3 ans
40k-75k €
400-680 €
Nanterre, Île-de-France
Description de la mission : Globalement votre mission pourra être de plusieurs niveaux : - Participer aux différents sujets ayant traits à Power BI - Accompagner les métiers dans l’assistance, avec animation formation au besoin, sur Power BI - Organiser des ateliers de best practices avec les métiers sur Power BI - Contribuer à enrichir et consolider le socle Power BI Et plus précisément : - Maîtrise et pratique de SQL sous Oracle indispensable - Participer et réaliser les développements sur Power BI (où vous serez également force de proposition) - Développement des Datasets sous Power BI - Modélisation des tables de faits/Dimensions et optimisation de scripts et modèles de données - Utilisation du langage DAX pour l’ajout des champs calculés et le calcul des mesures (KPI) - Gestion des sécurités et des habilitations dans Power BI - Collaborer au quotidien avec les autres développeurs de notre équipe - Rédaction des documents des spécifications techniques et livrables - Assister les utilisateurs internes pour gérer leurs demandes (analyse et traitement de données, rapports…) Compétences en Chefferie de Projet & Gouvernance DATA : - Proposer et Harmoniser un cycle de vie des développements sur power BI - Coordonner et animer réunions, ateliers et comités liés à la DATA - Concevoir des supports (présentations, synthèses, reportings) - Gérer l’organisation complète des réunions et le suivi d’actions - Faire preuve d’autonomie et être force de proposition - Participer activement à la gouvernance DATA et promouvoir les bonnes pratiques
Offre d'emploi
Data Scientist - Domaine Paiements & Big Data (GCP, Python, ML/NLP)
CAT-AMANIA
Publiée le
Git
Google Cloud Platform (GCP)
Python
6 mois
40k-71k €
500-610 €
Île-de-France, France
Au sein d'un grand groupe bancaire, intégré au pôle Paiement, vous agissez en tant que référent technique et fonctionnel sur des projets décisionnels et Big Data. Vous faites le lien entre les besoins métiers et les solutions technologiques innovantes basées sur l'Intelligence Artificielle et le Cloud. Vos missions principales : Gestion de projet & Analyse : Collecter les besoins auprès des métiers, animer des groupes de travail et rédiger les spécifications fonctionnelles et techniques. Data Engineering & Architecture : Modéliser les données et développer des reportings. Vous assurez l'exploration des données et contribuez à l'architecture sur le Cloud. Data Science & Machine Learning : Concevoir et implémenter des algorithmes de Machine Learning (spécifiquement en classification et NLP - Traitement du Langage Naturel). Delivery & Qualité : Assurer la recette, la mise en production (CI/CD) et garantir la qualité des livrables. Accompagnement : Former les utilisateurs et vulgariser la donnée via une communication visuelle efficace. Environnement Technique & Méthodologique : Cloud & Big Data : Expertise Google Cloud Platform indispensable (BigQuery, Airflow, Vertex AI/Notebook Jupyter). Langages & Libs : SQL, Python (Pandas, Scikit-learn, TensorFlow). DevOps/Delivery : Git, Jenkins, Cloud Build. Méthodologie : Agilité (Scrum, Kanban).
Mission freelance
Product Owner Data GCP
LINKWAY
Publiée le
Apache Airflow
BigQuery
Cloud
12 mois
400-550 €
Paris, France
Nous accompagnons un leader mondial et prestigieux du secteur du Luxe, réunissant un ensemble de Maisons emblématiques de la mode, de la maroquinerie et de la joaillerie. En tant que responsable de la plateforme Data construite sur Google Cloud Platform (GCP), vous porterez la vision produit. Votre mandat est clair : transformer les besoins métier complexes (venant du Retail, de l'E-commerce, du Marketing, de la Finance ou de la Supply Chain) en solutions data robustes, scalables et sécurisées. Vous ne livrez pas simplement de la technique, mais de la valeur business tangible pour l'ensemble des Maisons. Vision Produit et Roadmap Stratégique : Vous définirez et porterez la vision à long terme de la plateforme Data en alignement avec la stratégie digitale du Groupe. Vous construirez et maintiendrez une roadmap évolutive, en priorisant rigoureusement les initiatives selon leur retour sur investissement (ROI) et leur impact business. Vous devrez anticiper les évolutions technologiques du Cloud pour maintenir le Groupe à la pointe de l'innovation. Pilotage du Delivery et Agilité : Vous orchestrerez le travail des équipes techniques (Data Engineers, Architectes Cloud) en appliquant les méthodologies agiles. Votre rôle inclut la rédaction et la priorisation des User Stories avec des critères d'acceptation précis, ainsi que l'animation des cérémonies (Sprint Planning, Reviews, Retrospectives). Vous serez le garant du rythme de livraison et de l'arbitrage constant entre les besoins tactiques immédiats et les investissements structurels nécessaires. Gestion des Parties Prenantes (Stakeholder Management) : Vous agirez comme l'interface centrale pour une grande variété d'interlocuteurs : Data Analysts, Data Scientists, équipes métiers dans les Maisons et responsables Sécurité. Vous devrez recueillir, challenger et consolider les besoins, tout en facilitant l'adoption de la plateforme par les utilisateurs finaux. La communication sera clé : vous partagerez régulièrement les indicateurs de performance (adoption, coûts, efficacité) et les succès de la plateforme. Garantie de l'Excellence Technique et Conformité : Vous devrez comprendre et challenger les choix d'architecture (Data Lake, Data Warehouse, solutions streaming vs batch) pour garantir la performance et la maîtrise des coûts (FinOps). Évoluant dans un secteur exigeant, vous assurerez également que tous les développements respectent les normes strictes de gouvernance des données, de conformité (RGPD) et de cybersécurité (IAM, chiffrement), protégeant ainsi le patrimoine informationnel du Groupe.
Mission freelance
Data Scientist Senior / Expert IA
Celexio
Publiée le
Agent IA
Python
3 mois
400-660 €
Seine-Saint-Denis, France
Nous recherchons un(e) Data Scientist Senior passionné(e) par l'innovation pour accompagner une structure en pleine évolution technique. Votre rôle sera d'apporter un regard neuf et critique sur les outils et processus IA déjà en place. En véritable moteur de veille technologique, vous serez le garant de l'intégration des dernières avancées (IA Générative, Agents) pour transformer les usages de l'entreprise. Missions Audit et Diagnostic : Réaliser un état des lieux des projets actuels et identifier les opportunités d'optimisation. Accompagnement Technique : Travailler en binôme sur des sujets variés (réalignement de données, génération de contenus, data produit). Innovation & Veille : Challenger les outils existants et proposer des solutions basées sur les dernières technos (Agents IA, etc.). Développement : Conception et mise en œuvre de branchements et scripts complexes en Python. Transversalité : Intervenir en support sur l'ensemble des problématiques Data/IA de l'organisation.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4362 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois