Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 118 résultats.
Freelance

Mission freelance
Data Scientist Sénior

Publiée le
Data science
Python
Rédaction technique

18 mois
150-450 €
Paris, France
Télétravail partiel
Contexte : Experience : 5 ans et plus Métiers Fonctions : Data Management, Data Scientist Spécialités technologiques : APIs, Simulation, Optimisation linéaire, Devops MISSIONS Dans le cadre du renforcement d’une équipe dédiée à la modélisation mathématique, le client recherche un Data Scientist Senior (>5 ans d’expérience) pour intervenir sur un ensemble de sujets variés : optimisation, simulation, analyse de performance, développement de modèles et d’outils applicatifs. La prestation s’inscrit dans un environnement comprenant plusieurs applications et modèles, et non un produit unique, nécessitant une forte capacité d’adaptation et une compréhension technique rapide. Le consultant interviendra en tant que référent senior, encadrant un Data Scientist junior et garantissant la qualité méthodologique et scientifique des travaux. Livrables attendus : - Validation des algorithmes d’optimisation. - Approbation des tableaux de bord et outils d’aide à la décision. - Revue critique des recommandations stratégiques. - Validation des rapports d’analyse et des indicateurs de performance. - Documentation des standards de qualité appliqués. Missions détaillées: 1. Encadrement & supervision méthodologique - Accompagnement d’un Data Scientist junior. - Définition des standards méthodologiques, bonnes pratiques et règles de modélisation. - Validation des approches algorithmiques et statistiques. - Orientation des travaux et identification des risques techniques. - Garantie de la cohérence globale des modèles par rapport aux objectifs du programme. 2. Développement & modélisation - Développement Python. - Création d’APIs. - Intégration de modèles. - Manipulation des équations et formalismes mathématiques. Utilisation de la librairie HiGHS (optimisation mathématique) pour : - Gestion des contraintes. - Calculs d’optimisations. - Résolution de modèles linéaires / mixtes. - Capacité à comprendre et implémenter les modèles algorithmiques, pas seulement à les consommer. 3. Contrôle qualité & validation scientifique - Revue de code, audit d’architecture et bonnes pratiques Python. - Vérification de la qualité et de la cohérence des données utilisées. - Validation de la robustesse des modèles prédictifs, d’optimisation ou de simulation. - Challenge technique des résultats, scénarios et hypothèses. - Approbation finale des livrables avant diffusion. 4. Expertise & conseil : - Intervention en tant qu’expert sur les sujets complexes de modélisation. - Recommandations méthodologiques et proposition d’améliorations. - Veille technologique et scientifique sur l’optimisation, les modèles mathématiques et les outils Python. - Capitalisation des bonnes pratiques pour l’équipe. 5. Communication & coordination : - Présentation des validations et recommandations aux parties prenantes. - Interface entre les équipes techniques et la direction projet. - Participation aux comités et instances de pilotage. - Documentation des critères de qualité et des processus de validation. - Contribution à la montée en compétences du Data Scientist junior. Compétences requises : - Expertise en Python : développement d’APIs, structuration de librairies, manipulation d’équations. - Maîtrise de HiGHS ou autre solveur d’optimisation linéaire/quadratique. - Solide bagage scientifique : mathématiques, physique, modélisation, statistiques. - Capacité à travailler sur plusieurs modèles simultanément. - Très bonne communication orale et écrite. - Autonomie forte et posture de référent. Compétences appréciées : - Expérience sur des modèles mathématiques à grande échelle. - Aisance en revue méthodologique et en cadrage scientifique. - Aucun besoin de connaissance fonctionnelle métier spécifique. Expertise souhaitée Data Scientist Senior (>5 ans d’expérience)
Freelance

Mission freelance
Data Scientist

Publiée le
API
autonomie
Python

12 mois
Hauts-de-Seine, France
Télétravail partiel
Poste : Data Scientist Senior (>5 ans d’expérience) Objectif : Renforcer une équipe dédiée à la modélisation mathématique, intervenant sur l’optimisation, la simulation, l’analyse de performance, le développement de modèles et outils applicatifs dans un environnement multi-application. Responsabilités principales : Encadrement & supervision : Accompagner un Data Scientist junior, définir les standards méthodologiques, valider approches et modèles, garantir la cohérence des travaux. Développement & modélisation : Développer en Python, créer des APIs, intégrer des modèles, manipuler équations mathématiques, utiliser la librairie HiGHS pour l’optimisation (contraintes, optimisations linéaires/mixte). Contrôle qualité & validation : Revoir le code, auditer l’architecture, vérifier la cohérence des données, valider la robustesse des modèles, challenger les résultats, approuver les livrables. Expertise & conseil : Apporter une expertise sur la modélisation, faire des recommandations méthodologiques, effectuer une veille technologique, capitaliser les bonnes pratiques. Communication & coordination : Présenter les validations, faire le lien entre équipes techniques et direction, participer aux réunions, documenter les processus, contribuer à la montée en compétences du junior. Compétences requises : Maîtrise avancée de Python (APIs, librairies, équations) Maîtrise du solveur HiGHS ou équivalent pour l’optimisation linéaire/quadratique Solide background en mathématiques, physique, modélisation et statistiques Capacité à gérer plusieurs modèles simultanément Excellentes compétences en communication, forte autonomie, posture de référent Compétences appréciées : Expérience avec des modèles mathématiques à grande échelle Aisance en revue méthodologique et cadrage scientifique Aucune connaissance métier spécifique nécessaire
Freelance
CDI

Offre d'emploi
Data Scientist LCB-FT

Publiée le
Data science

3 ans
40k-80k €
400-650 €
Île-de-France, France
Télétravail partiel
Contexte : La mission interviendra en appui d’une équipe projet pluridisciplinaire (métier conformité, gestion de projets, informatique, data science) en charge de mener à bien le développement interne d’une nouvelle solution informatique performante et innovante, intégrant notamment des fonctionnalités de machine Learning et d’intelligence artificielle en ligne avec les attentes du régulateur et les standards de place les plus performants. Prestations attendues : - Elaboration de nouveaux modèles de données adaptés à la Conformité, et notamment la révision de l’approche en matière de scoring, de segmentation de la clientèle, et des seuils de déclenchement des alertes sur opérations atypiques. - Réduction des alertes non pertinentes et l’optimisation des analyses et investigations - Sélection et la validation de variables pertinentes (features engineering) pour améliorer la performance des modèles de détection - Utilisation combinée de modèles de machine learning supervisés et non supervisés pour optimiser la détection des comportements suspects et réduire les faux positifs - Choix techniques et stratégiques adaptés aux enjeux et au contexte opérationnel du groupe BRED (typologie clients, offre produits et services, entités multiples…) - Accompagnement des différentes étapes des projets informatiques de la Conformité (études & cadrage, recette, suivi comités) dans le respect des échéances imposées - Contribution à la rédaction des livrables projets (expression de besoin métier, cahiers des charges, procédures) Expérience exigée dans la Lutte Contre le Blanchiment d'argent et le Financement du Terrorisme (LCB-FT)
Freelance

Mission freelance
data scientist

Publiée le
Data science

12 mois
400-550 €
Paris, France
Télétravail partiel
Prise en charge la réalisation des études et du développement des cas d’usage d’intelligence artificielle identifiés dans le cadre de plan stratégique mais aussi de besoins ad hoc remontés pour améliorer notamment l’efficacité opérationnelle. Dans ce cadre les missions et activités principales sont : • Identifier, tester et implémenter des approches permettant d’exploiter des technologies de machine learning et d’IA générative au service des processus risques • Explorer et exploiter les données internes • Faire évoluer les applicatifs IA existants (notamment applicatif de production GCP sur un cas d’usage de ciblage) • Echanger avec les équipes DSI et autres équipes de Data Scientists du Groupe • Assurer une veille technologique sur les évolutions des technologies d’IA générative
Freelance

Mission freelance
Data Scientist Senior

Publiée le
Google Cloud Platform (GCP)
Python
SQL

12 mois
Paris, France
Télétravail partiel
Contexte de la mission Une grande organisation publique du secteur numérique renforce sa Direction Data, rattachée à la Direction du Numérique. Cette direction a pour objectif de faire de la donnée un levier majeur de croissance et d’optimisation des usages numériques. Le pôle Data Intelligence, composé de 4 Data Scientists et 2 Data Analysts, recherche un Data Scientist senior afin de soutenir l’exploitation des données utilisateurs, la mise en place de modèles avancés et la structuration du socle analytique. Une expérience minimale de 8 ans en data science est requise. Prestations attendues Le consultant interviendra au sein de l’équipe Data Science pour : Analyse et structuration de données • Auditer les nouvelles données disponibles dans le datalake pour enrichir le socle analytique. • Explorer, analyser et comprendre les profils et comportements utilisateurs. • Réaliser des analyses avancées : profils de vidéonautes, comportements par canal, consommation de contenus, impact de la pression publicitaire. Développement de modèles de Data Science • Comprendre les besoins métier, proposer une approche adaptée et vulgariser les résultats. • Développer et industrialiser des modèles tels que : Prévision des audiences. Enrichissement du catalogue via IA générative. Analyse sémantique des commentaires utilisateurs. Prédiction d’inactivité, d’appétence, anti-churn. Segmentation utilisateurs. Contribution au produit Data • Participer à l'amélioration continue des outils et pipelines. • Travailler avec les équipes data, produit et métier dans un contexte agile. Expertises requises Techniques • Expériences concrètes en modèles IA : prévision, recommandation, scoring, analyse sémantique, détection d’anomalies. • Expérience significative sur des sujets d’IA générative (IAG). • Maîtrise impérative de Python et SQL . • Bonne connaissance d’un cloud, idéalement Google Cloud Platform . • Connaissance des données issues d’écosystèmes digitaux (Piano Analytics, Google Analytics…). • Connaissance d’un outil de dataviz. • Un plus : architectures API, Git/GitHub, méthodes agiles. Fonctionnelles • Capacité à comprendre un besoin métier, synthétiser et restituer clairement. • Capacité à gérer plusieurs projets simultanément. • Rigueur, autonomie, esprit d’équipe.
Freelance

Mission freelance
Ingénieur Big Data / Infrastructure en Île-de-France

Publiée le
Big Data
Cloud
Infrastructure

6 mois
Île-de-France, France
Télétravail partiel
Au sein d’une DSI ou d’une équipe Data/Cloud en pleine transformation numérique, l’ingénieur Big Data / Infrastructure intervient pour concevoir, déployer et maintenir des plateformes de traitement de données à grande échelle. Il joue un rôle clé dans la fiabilité, la performance et la sécurité des environnements Big Data utilisés par les data engineers, data scientists et équipes métier. Responsabilités principales 1. Conception et mise en place de l’infrastructure Big Data Concevoir des architectures de données distribuées (Hadoop, Spark, Kafka, HDFS, NoSQL, S3…). Participer au dimensionnement des clusters, à la définition des SLA et des bonnes pratiques d’industrialisation. Déployer et configurer les services Big Data dans un contexte On-premise, Cloud (AWS/GCP/Azure) ou hybride. 2. Administration et exploitation des plateformes Assurer l’administration quotidienne des clusters : gestion des ressources, supervision, montée de version, tuning des performances. Implémenter des mécanismes de haute disponibilité, d’équilibrage de charge et d’optimisation du stockage. Réaliser des diagnostics avancés en cas de dysfonctionnement et mettre en place des correctifs durables. 3. Automatisation, CI/CD et industrialisation Développer et maintenir des pipelines d’automatisation (Terraform, Ansible, Jenkins, GitLab CI…). Standardiser les déploiements via Infrastructure as Code. Contribuer à l'amélioration continue de la plateforme, en proposant des optimisations de performance et des outils de monitoring. 4. Sécurité, conformité et gouvernance Intégrer les contraintes de sécurité : gestion des accès (Kerberos, IAM, Ranger), chiffrement, segmentation réseau. Participer à la mise en œuvre de la gouvernance Data (catalogue, lineage, qualité, traçabilité). Veiller au respect des politiques RGPD et des normes internes. 5. Support aux équipes Data et accompagnement technique Accompagner les data engineers, développeurs et data scientists dans l’utilisation des ressources Big Data. Optimiser les jobs Spark/Kafka/Hadoop pour réduire les coûts et améliorer la latence. Participer à la rédaction de documentation technique, guides d’usage et bonnes pratiques.
Freelance

Mission freelance
Profil Data (Data Analyst ou Data Scientist)

Publiée le
Microsoft Excel
PowerBI
Python

2 mois
100-500 €
Paris, France
Pour le besoi de mon client ,je suis à la recherche d’ un profil expérimenté, autonome, avec des compétences DATA forte (Data analyst ou Data scientist senior) Analyser les parcours d’achat des usagers et leurs besoins dans différents types de gares. Construire une planification fiable des besoins en canaux de distribution à horizon 2027 à partir d’un modèle dynamique. Faire évoluer ce modèle vers un outil d’anticipation permettant de projeter les besoins par gare à moyen terme. Compétences attendues : maîtrise de Python, SQL, Excel et Power BI.
Freelance

Mission freelance
POT8818 - Un Data Scientiste Senior sur Clermont-ferrand

Publiée le
SQL

6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Data Scientiste Senior sur Clermont-Ferrand. PRESTATION Datascientist expérimenté en analyse de données télématiques gros volume et cartographie numérique PRINCIPALES ACTIVITES Analyse de données -Classification et clustering, machine learning dans les domaines de la topographie et de l’usage des véhicules (cinématique et dynamique) -Evaluation et développement d'algorithmes, services et process associés Prescripteur pour les évolutions futures de l'environnement d'analyse et bases de données -BD spatiale et navigation entre bases de données géospatiales et temporelles (en collaboration) COMPETENCES Expérimenté en machine learning Snowlake, PostgreSQL Python (geopandas, holoviews, datashader) SQL Expérience souhaitée en traitement de signal Expérience souhaitée sur QGIS ou ArcGIS Expérience souhaitée de geoservices: OSM, Here Développement de Web apps pour déploiement sur le terrain Outils de visualisation / BI : -Conception d'outils d'exploration visuelle de données spatiales et temporelles -Elaboration de dashboards d'analyse Localisation : Clermont-ferrand / 5 jours par semaine
Freelance

Mission freelance
Data Scientist IA Générative (LLM)

Publiée le
Data science
Django
IA Générative

12 mois
550-580 €
Île-de-France, France
Télétravail partiel
Contexte de la mission Nous recherchons un Data Scientist Senior pour intervenir sur des projets avancés autour de l’ IA générative et des LLM , en lien étroit avec les équipes techniques et produit. Responsabilités : Conception et optimisation de pipelines IA basés sur des LLM Développement de solutions de type RAG , agents et chaînes de raisonnement Utilisation de LangChain et LangGraph pour orchestrer les modèles Analyse et exploitation de données textuelles Évaluation des performances des modèles (qualité, biais, robustesse) Contribution aux choix d’architecture IA Stack technique : Python 3 Django (pour intégration applicative) LangChain LangGraph LLM & IA générative (embeddings, prompts, fine-tuning, RAG) Profil recherché : Expérience confirmée en Data Science / IA Forte appétence pour les LLM et l’IA générative Solide maîtrise de Python et des problématiques NLP Capacité à travailler sur des sujets complexes et exploratoires
Freelance

Mission freelance
Lead Data Quality Analyst

Publiée le
Dataiku
Qlik
ServiceNow

12 mois
600-700 €
Paris, France
Télétravail partiel
En tant que Lead Data Quality Analyst , vous êtes le garant de la fiabilité et de l'intégrité de nos actifs data. Votre rôle central consiste à définir, mesurer et mettre en œuvre les stratégies et processus assurant une haute qualité des données, indispensable à la prise de décision et au succès de nos initiatives métier. Vous pilotez l'ensemble du cycle de vie de la qualité des données : Gouvernance et Stratégie Data Quality : Définir et maintenir les règles de qualité des données (complétude, unicité, validité, cohérence et format). Établir les indicateurs clés de performance (KPI) de la qualité des données et s'assurer de leur suivi régulier. Analyse et Audit des Données : Analyser la qualité des données au sein de nos systèmes sources et cibles (Data Warehouse, Data Lake). Identifier les anomalies, les causes racines des problèmes de qualité (système, processus, ou saisie) et recommander des actions correctives. Implémentation Technique : Mettre en œuvre des contrôles de qualité automatisés directement dans les outils d'entrepôt de données (notamment Snowflake ). Développer des tableaux de bord de monitoring de la qualité pour visualiser les scores et les tendances (via Qlik ou d'autres outils de visualisation). Coordination et Amélioration Continue : Collaborer étroitement avec les Data Engineers, les Data Scientists et les équipes métier pour garantir la bonne application des règles de qualité. Gérer la priorisation des tickets et des actions d'amélioration de la qualité des données.
Freelance
CDI

Offre d'emploi
Architecte Data (28)

Publiée le
CI/CD
Terraform

1 an
40k-45k €
400-750 €
Île-de-France, France
Télétravail partiel
Définition du besoin La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Dans ce contexte, la Direction Technique a besoin d'être accompagnée sur une prestation d'Architecture Data pour l'ensemble de la Data Platform et des dispositifs associés. Prestations attendues dans le cadre de la prestation Au sein des équipes Data composées de product owners, de data engineers, de data scientists et autres profils, la prestation portera sur l'accompagnement des équipes dans les domaines suivants :
CDI

Offre d'emploi
Data Scientist

Publiée le
Data science
Machine Learning

40k-62k €
Levallois-Perret, Île-de-France
Télétravail partiel
l’Assistant(e) Externe / Datascience & AI Business jouera un rôle clé dans la conduite et le développement des projets d’intelligence artificielle, depuis le cadrage des besoins métier jusqu’à la mise en production des solutions. Votre mission consistera à allier compétences en gestion de projet et savoir-faire technique en datascience pour garantir la réussite des initiatives IA menées au sein de Personal Finance. Vous interviendrez en appui stratégique et opérationnel, en lien étroit avec les équipes Datascience, IT, et les directions métiers. Vos principales responsabilités incluront : • Piloter et coordonner les projets IA / Data : cadrage, suivi des livrables, reporting et animation des points d’avancement. • Analyser les besoins métiers et les traduire en cas d’usage data exploitables. • Contribuer aux travaux de data science : préparation et analyse de données, validation et suivi de modèles (ML, NLP, IA générative). • Produire des livrables de synthèse (dashboards, rapports, présentations) à destination des équipes métiers et du management. • Assurer la communication transverse entre les équipes techniques et métiers, et participer à la documentation et la capitalisation des bonnes pratiques.
Freelance
CDI

Offre d'emploi
DATA SCIENTIST

Publiée le
Azure
Databricks
Python

3 ans
40k-60k €
400-550 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de notre client nous recherchons un Data Scientist 👽. Contexte Notre client a misé sur une plateforme Big Data sur Microsoft Azure pour centraliser ses flux data, stocker des pétaoctets de données dans des Data Lakes et industrialiser des cas d’usage IA stratégiques. La Data Science joue un rôle clé, notamment dans les projets de maintenance prédictive, d’information voyageurs et d’optimisation opérationnelle. Missions principales Développer des modèles de Machine Learning et d’IA sur des volumes massifs de données stockées sur Azure (Data Lake, Data Factory, Databricks). Construire des features temporelles , utiliser des séries temporelles ou des méthodes statistiques avancées pour modéliser des phénomènes (ex : retards, maintenance). Analyser les données météorologiques, de trafic, IoT, capteurs ou autres sources pour créer des prédictions (ex : retards, pannes) ou des systèmes d’alerte. Industrialiser les pipelines d’entrainement et d’inférence sur Azure (notamment via Azure Databricks, Azure ML, etc.). Monitorer les performances des modèles, mettre en place des métriques qualité, des alertes, des feedback loops. Collaborer avec les équipes infrastructure / Data Engineering pour garantir la scalabilité et la gouvernance des flux data. Accompagner les équipes métier (opération, maintenance, transport, marketing) dans l’exploitation des modèles prédictifs. Documenter les modèles, écrire des rapports, créer des visualisations et restituer les résultats de manière pédagogique. Cloud Azure : Data Lake, Data Factory, Databricks. Big Data : Spark (Scala ou Python) pour traitement distribué. Langages : Python (pandas, scikit-learn, ML frameworks), SQL / T-SQL. Machine Learning / IA : régression, classification, séries temporelles, modèles statistiques, ou algorithmes supervisés / non supervisés. Data Engineering / Pipeline : connaissance des pipelines ETL/ELT, ingestion de données, feature engineering. MLOps : pipelines de déploiement, scoring, orchestration, monitoring, versioning des modèles. Gouvernance des données : qualité, sécurité, catalogage. Architecture des données : conception de schémas, datalakes, modélisation. Compétences transverses Esprit analytique et méthodique . Capacité à vulgariser des concepts complexes auprès des équipes métier. Autonomie, rigueur, curiosité et force de proposition. Aisance relationnelle et collaboration interdisciplinaire (Data, produit, exploitation). Capacité à prioriser et structurer le travail sur des sujets long terme. Profil recherché Formation : Bac+5 (informatique, data, maths, statistique, IA…). Expérience : minimum 3 à 6 ans en data science / machine learning, idéalement sur des environnements cloud / Big Data. Langues : bon niveau d’anglais technique. Atout : expérience antérieure dans le transport, l’IoT, la maintenance, ou de lourdes infrastructures data.
Offre premium
CDI

Offre d'emploi
Ingénieur DATA / DEVOPS (F/H)

Publiée le
AWS Cloud
Data analysis
DevOps

Nice, Provence-Alpes-Côte d'Azur
Télétravail partiel
Mission sur SOPHIA ANTIPOLIS 4 jours de présentiels (préférable d'habiter la région Alpes maritimes) En vue d'embauche en CDI Notre client, une start-up dans l'énergie, recherche un tech lead pour accompagner les équipes dans le développement de leur solution de prévision météo. Mission principale : Assurer le pilotage technique et la mise en production des solutions de prévision solaire développées, en garantissant la robustesse, la scalabilité et la fiabilité de l’infrastructure data et logicielle. Responsabilités clés : Data Engineering : maintenir et optimiser les pipelines de données (météo, satellite, capteurs PV) pour les modèles de prévision. Infrastructure & DevOps : Déploiement et gestion des environnements cloud (AWS). Mise en place et maintenance de l’Infrastructure as Code (Terraform). Automatisation et optimisation des déploiements via CI/CD (GitHub Actions). Orchestration des tâches : concevoir, monitorer et optimiser les workflows de données et de calcul via Dagster. Opérations métiers : garantir la bonne exécution des codes de prévision (algorithmes, modèles, calculs intensifs) en production. Onboarding & Process : structurer et gérer les procédures d’onboarding technique des nouveaux clients et des PoCs. Qualité & Sécurité : veiller à la résilience, à la sécurité et à la performance des systèmes déployés. Compétences attendues : Solide expérience en Data Engineering et/ou DevOps. Maîtrise de AWS et des outils Terraform. Connaissance des bonnes pratiques CI/CD et expérience avec GitHub Actions. Expérience en orchestration de workflows de données (idéalement Dagster, sinon Airflow ou équivalent). Compétences en scripting (Python, Bash) et monitoring. Capacité à travailler dans un environnement agile, en lien avec des data scientists et des équipes projet. Esprit de structuration et sens des responsabilités pour accompagner la croissance d’une scale-up deeptech.
Freelance

Mission freelance
Data Architecte H/F

Publiée le
Apache Airflow
Apache Spark
BigQuery

210 jours
510-770 €
Paris, France
Télétravail partiel
Rejoignez un leader français de l'audiovisuel pour une mission stratégique d' Architecte Data GCP . Vous accompagnerez la Direction Technique du Numérique dans la consolidation et l'optimisation de sa Data Platform, en interface directe avec les équipes Data (Product Owners, Data Engineers, Data Scientists). Votre rôle sera de structurer l'architecture technique globale, améliorer l'expérience développeur et piloter l'optimisation des coûts cloud. Vos Missions : 🏗️ Architecture Technique Garantir la cohérence de la stack data entre équipes et projets Définir et faire respecter les contrats d'interface (schémas, API, data contracts) Effectuer la veille technologique et évaluer les standards du marché Tester, auditer et introduire de nouvelles technologies Réaliser un audit de l'architecture existante et recommander les améliorations ⚡ Developer Experience Contribuer à la création de modules Terraform et à leur industrialisation Accompagner les équipes dans l'usage de l'Infrastructure as Code Définir les standards CI/CD pour les équipes data (tests, lint, automatisation) 💰 FinOps & Optimisation Mettre en place un suivi budgétaire par équipe Implémenter des outils d'alerting et monitoring (quotas, seuils, dérives) Identifier les leviers d'optimisation et participer à la roadmap FinOps
Freelance
CDI

Offre d'emploi
DATA SCIENTIST GCP (500€ MAX)

Publiée le
Google Cloud Platform (GCP)

3 mois
47k-97k €
330-500 €
Paris, France
Télétravail partiel
La prestation consistera à : - Exploiter le socle de data pour mettre en place le pilotage des actions, en construisant des dashboards (Power BI) pour le suivi des profils, le suivi de l’engagement, le suivi des segments RF, le suivi des objectifs - Analyser les profils et comportements des utilisateurs, en mettant en place les analyses des profils de vidéonautes, décortiquant les comportements selon les canaux d’acquisition, les contenus consommés, en analysant l’impact de la pression pub sur nos utilisateurs, … - Mettre en place la data science et l’IA au service de l’amélioration de l’expérience utilisateur et l’amélioration de nos process internes - Prédiction des audiences - Enrichissement du catalogue via l’IAG - Prédiction de l’inactivité, des appétences, … - Segmentations - Expériences en analyses de connaissance clients / utilisateurs du type cycle de vie client, churn, recrutés… - Expériences en data science sur des sujets de type prévision, algo de reco, score d’appétence, anti churn… - Expériences sur des sujets d’ IA Générative - Maitrise SQL indispensable, solides connaissances en Python et/ou Spark - Expériences sur un environnement Google Cloud Platform / Big Query - Bonne connaissance des données et des outils dans un écosystème digital (de type Piano Analytics, Google Analytics..) - Capacité à synthétiser et à restituer des résultats à des interlocuteurs ayant des niveaux de maturité data différent - Capacité à mener plusieurs sujets en même temps - Curiosité, dynamisme, enthousiasme, esprit d’équipe, rigueur et autonomie
118 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous