Trouvez votre prochaine offre d’emploi ou de mission Deep Learning

Votre recherche renvoie 14 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance Product Owner Data (H/F)

Accelite
Publiée le
Apache Hive
Apache Kafka
Apache Maven

1 an
450-600 €
Paris, France
En tant que Product Owner DATA (H/F), vous intervenez au sein de la filiale assurance d’une grande banque, pour participer à la construction des entrepôts de données du domaine Protection au sein du datalake. Eléments de dimensionnement : Périmètre d’intervention : appui aux activités sur l’ensemble de la Ligne Métier Assurance en France et à l’International pour le domaine Protection (tous clients, tous distributeurs / canaux) Direction des projets DATAHUB du périmètre Protection au sein du Datalake Vous aurez pour missions : - (Faire) construire les fondations et les usages sur ce Domaine en assurant la disponibilité et la qualité des données pour l’ensemble des cas d’usage métiers de ASSU et de nos distributeurs -Travailler en étroite collaboration avec l’IT pour mettre en œuvre la stratégie data de ASSU -Accompagner les utilisateurs sur le Domaine Finalités de la Prestation : -Améliorer le partage de connaissances quantitatives au sein d’ASSU concernant le Domaine -Améliorer la factorisation des investissements IT pour augmenter le reuse -Réduire le coût de manipulation des données par les métiers -Réduire les problèmes de cohérence entre les métiers -Préparer les investissements pour les futurs usages Compétences recherchées : -Vous disposez d’une expérience de + 10 ans minimum -Connaissance sur la protection souhaitée mais non obligatoire -Connaissance et expérience dans la gestion de projet en V et en agile Techniques : -Maîtrise des outils décisionnels (Business Object, Tableau, SAS, R, Power BI, etc.) -Maîtrise des enjeux autour des entrepôts de données et de leur construction -Connaissance de technologies No-SQL mainstream : Hive, Spark, etc. Projets data : -Animation de grands projets data transverses : capacité d’analyse et de synthèse, regard critique sur les demandes utilisateurs, sensibilisation aux enjeux RGPD, gestion des utilisateurs, maîtrise de la communication via la documentation type du Datalake, animation d’ateliers de spécifications, réunions de restitutions -Réalisation de grands projets data transverses : interface entre les utilisateurs et l’IT afin de définir les travaux de l’équipe MOE (rédiger les US) et de les valider (recette utilisateur) -Qualités rédactionnelles et documentaires suffisantes pour communiquer aux utilisateurs et aux différentes parties prenantes sur le domaine -Sensibilisation à la Gouvernance des Données -Être un ancien utilisateur d’un Datalake et / ou de plusieurs autres types d’entrepôts (SAS, Oracle) -Être un ancien utilisateur SAS, R, Power BI, Tableau, BO, etc. -Report et remontée de vigilance au PO du Datalake sur le domaine Comportemental : -Souhait de s’inscrire dans un projet de transformation d’entreprise -Capacité à donner du feedback à l’équipe Feature Team Data et à travailler quotidiennement avec l’IT -Capacité à prendre du feedback auprès des utilisateurs et à en décliner ou pas un plan d’actions -Capacité à faire le lien entre les métiers et les ressources MOE, MOA -Entrepreneur(se), passionné(e), curieux(se)
Freelance

Mission freelance Senior PMO/Business analyst - data migration

RTV Consulting
Publiée le
Adobe Campaign
Agile Scrum
API REST

1 an
500-600 €
Paris, France
Dans le cadre de la mise en place d’un nouveau ’data model’ de gestion des ’contacts’ et ’partners’, vous serez en charge de: - Assurer la qualité des livraisons dans les temps - Gestion et priorisation du backlog global en coordination avec les POs et gestion des dépendances des évolutions - Proposer un design de la solution pour atteindre les objectifs du projet - Assurer la rédaction des Users Stories pour chaque application - Assurer le suivi du developpement de la solution avec les développeurs - Gestion des tests avec les stakeholders jusqu’à la mise en production - Gestion de la migration et du nettoyage des données - Parti prennante des comité de projet hebdomadaires et préparation des supports des steering committees - Fournir la bonne communication sur les progrès du projet aux stakeholders
CDI

Offre d'emploi Product Owner Data (H/F)

Accelite
Publiée le
Apache Hive
Apache Kafka
Apache Maven

45k-65k €
Paris, France
En tant que Product Owner DATA (H/F), vous intervenez au sein de la filiale assurance d’une grande banque, pour participer à la construction des entrepôts de données du domaine Protection au sein du datalake. Eléments de dimensionnement : Périmètre d’intervention : appui aux activités sur l’ensemble de la Ligne Métier Assurance en France et à l’International pour le domaine Protection (tous clients, tous distributeurs / canaux) Direction des projets DATAHUB du périmètre Protection au sein du Datalake Vous aurez pour missions : - (Faire) construire les fondations et les usages sur ce Domaine en assurant la disponibilité et la qualité des données pour l’ensemble des cas d’usage métiers de ASSU et de nos distributeurs -Travailler en étroite collaboration avec l’IT pour mettre en œuvre la stratégie data de ASSU -Accompagner les utilisateurs sur le Domaine Finalités de la Prestation : -Améliorer le partage de connaissances quantitatives au sein d’ASSU concernant le Domaine -Améliorer la factorisation des investissements IT pour augmenter le reuse -Réduire le coût de manipulation des données par les métiers -Réduire les problèmes de cohérence entre les métiers -Préparer les investissements pour les futurs usages Compétences recherchées : -Vous disposez d’une expérience de + 10 ans minimum -Connaissance sur la protection souhaitée mais non obligatoire -Connaissance et expérience dans la gestion de projet en V et en agile Techniques : -Maîtrise des outils décisionnels (Business Object, Tableau, SAS, R, Power BI, etc.) -Maîtrise des enjeux autour des entrepôts de données et de leur construction -Connaissance de technologies No-SQL mainstream : Hive, Spark, etc. Projets data : -Animation de grands projets data transverses : capacité d’analyse et de synthèse, regard critique sur les demandes utilisateurs, sensibilisation aux enjeux RGPD, gestion des utilisateurs, maîtrise de la communication via la documentation type du Datalake, animation d’ateliers de spécifications, réunions de restitutions -Réalisation de grands projets data transverses : interface entre les utilisateurs et l’IT afin de définir les travaux de l’équipe MOE (rédiger les US) et de les valider (recette utilisateur) -Qualités rédactionnelles et documentaires suffisantes pour communiquer aux utilisateurs et aux différentes parties prenantes sur le domaine -Sensibilisation à la Gouvernance des Données -Être un ancien utilisateur d’un Datalake et / ou de plusieurs autres types d’entrepôts (SAS, Oracle) -Être un ancien utilisateur SAS, R, Power BI, Tableau, BO, etc. -Report et remontée de vigilance au PO du Datalake sur le domaine Comportemental : -Souhait de s’inscrire dans un projet de transformation d’entreprise -Capacité à donner du feedback à l’équipe Feature Team Data et à travailler quotidiennement avec l’IT -Capacité à prendre du feedback auprès des utilisateurs et à en décliner ou pas un plan d’actions -Capacité à faire le lien entre les métiers et les ressources MOE, MOA -Entrepreneur(se), passionné(e), curieux(se)
CDI

Offre d'emploi Data Quality Analyst (H/F)

Accelite
Publiée le
Agile Scrum
Analyse
Base de données

40k-50k €
Paris, France
En tant que Data Quality Analyst (H/F), vous intervenez au sein d’un grand compte bancaire pour assurer le développement et la mise en œuvre des indicateurs et dashboards sur la qualité des données au sein de la production informatique mutualisée (gestions des données de l’IT), dans un contexte technique complexe, et en méthode agile. Vous assurez le développement des méthodes de contrôle qualité des données avec des dashboards / KPI permettant de piloter les remédiations. Les missions sont : Maitrise Data Quality Management : identification / formalisation des exigences de qualité, mise en place des contrôles et des modalités de suivi de la qualité des données nécessaire. Maitrise Data preparation : développement de flow de préparation, traitement des données afin d’extraire les données essentielles et optimiser les performances dans la data visualisation. Maitrise Data vizualisation : Le développement de dashboards mettant en évidence l’état de santé des bases de données sur différents axes (inventaire, état, résilience, backup, obsolescence. Meta Data Management : analyse fine et compréhension des data sources et données nécessaire à collecter, traitement pour génération des indicateurs et tableaux de bord. Infrastructures IT : connaissance générale sur les différentes solutions de production informatiques et leurs interactions (serveurs, réseaux, télécom, stockage, filtrage, répartition de charge, mainframe, virtualisation, docker, ITIL, ITSM, sécurité informatique, middleware, etc). Compétences recherchées : -Maîtrise Tableau / PowerBI (optionnel) -Maîtrise Dataiku -Maitrise Python -Maîtrise langage SQL (sur PostgreSQL principalement / Oracle / MSSQL) -Aisance consommation de données sur des systèmes distribués (Kafka, ELK, S3 storage) -Connaissance en méta data management, type outil Talend Data Catalogue -Aisance sur les outils agile scrum : Jira / Confluence -Maitrise de l’anglais
Freelance

Mission freelance Data Quality Analyst (H/F) - Tableau / Dataiku

Accelite
Publiée le
Agile Scrum
Analyse
Big Data

1 an
400-500 €
Paris, France
En tant que Data Quality Analyst (H/F), vous intervenez au sein d’un grand compte bancaire pour assurer le développement et la mise en œuvre des indicateurs et dashboards sur la qualité des données au sein de la production informatique mutualisée (gestions des données de l’IT), dans un contexte technique complexe, et en méthode agile. Vous assurez le développement des méthodes de contrôle qualité des données avec des dashboards / KPI permettant de piloter les remédiations. Les missions sont : Maitrise Data Quality Management : identification / formalisation des exigences de qualité, mise en place des contrôles et des modalités de suivi de la qualité des données nécessaire. Maitrise Data preparation : développement de flow de préparation, traitement des données afin d’extraire les données essentielles et optimiser les performances dans la data visualisation. Maitrise Data vizualisation : Le développement de dashboards mettant en évidence l’état de santé des bases de données sur différents axes (inventaire, état, résilience, backup, obsolescence. Meta Data Management : analyse fine et compréhension des data sources et données nécessaire à collecter, traitement pour génération des indicateurs et tableaux de bord. Infrastructures IT : connaissance générale sur les différentes solutions de production informatiques et leurs interactions (serveurs, réseaux, télécom, stockage, filtrage, répartition de charge, mainframe, virtualisation, docker, ITIL, ITSM, sécurité informatique, middleware, etc). Compétences recherchées : -Maîtrise Tableau / PowerBI (optionnel) -Maîtrise Dataiku -Maitrise Python -Maîtrise langage SQL (sur PostgreSQL principalement / Oracle / MSSQL) -Aisance consommation de données sur des systèmes distribués (Kafka, ELK, S3 storage) -Connaissance en méta data management, type outil Talend Data Catalogue -Aisance sur les outils agile scrum : Jira / Confluence -Maitrise de l’anglais
Freelance

Mission freelance Data scientist Sénior (Quasi full remote Paris ou Bordeaux)

SURICATE IT
Publiée le
Data science
Deep Learning
Machine Learning

2 ans
500-680 €
Paris, France
Votre principale mission, au sein de nos équipes, sera : le prototypage, l’itération, et la mise en production des algorithmes 2 jours de présentiel à Paris ou Bordeaux Mission a pourvoir ASAP Mission très longue Un eexpérience de mise en prod est indispensable pour ce poste Expérience en Start-up et / ou Scale-up appréciée
Freelance

Mission freelance Data-Scientist

CAT-AMANIA
Publiée le

2 ans
450-650 €
Nanterre, Île-de-France
Au sein du Datalab Groupe, intervention sur des projets de R&D et d’industrialisation de modèles de ML. Contexte projet : maîtrise de la charge de sinistres, de lutte anti-fraude, des risques climatiques. Mission : - Encadrement de Data Scientist, - Référent technique sur les travaux d’industrialisation, - Rédaction et ou supervision de documentation - Proposition de nouveaux outils et de nouvelles méthodes - Amélioration continue sur les modèles existants Environnement technique : Python (pandas, scikit, pyod, geopandas, kepler), Git, Docker, CI/CD, Mlflow, Databricks, sphinx, Pycharm, Deep Learning (Tensorflow Pytorch) + si possible : R, QlikSense
Freelance

Mission freelance Expert IA

STHREE SAS pour HUXLEY
Publiée le

1 an
700 €
Île-de-France, France
Collecter et préparer les données Explorer et analyser les données pour comprendre les tendances et les performances Effectuer des classifications grâce à des algorithmes de deep learning Mettre en œuvre une démarche MLOps complète, de gestion du cycle de vie des modèles de bout en bout pour automatiser les processus d'entreprise et améliorer leur efficacité Communiquer les résultats à des spécialistes Participer à l'organisation et au pilotage d'un projet de data science / IA
Freelance

Mission freelance Data Scientist

Cherry Pick
Publiée le

6 mois
550-600 €
Nanterre, Île-de-France
Cherry Pick est à la recherche d’un Data Scientist pour l’un de ses clients dans le secteur de l’assurance. Missions : - Superviser techniquement les travaux des Data Scientist junior et stagiaires de l’équipe (cadrage technique, challenge et optimisation du code, méthodologie modélisation) - Être le référent technique de l’équipe concernant les travaux d’industrialisation des modèles effectués par l’IT de Groupama, en challengeant notamment leurs approches - Contribuer ponctuellement sur quelques projets de Data Science - Rédiger et/ou superviser la documentation en conformité avec les normes et standards de l’équipe - Proposer des nouveaux outils, méthodes pour faire monter en compétence l’équipe - Apporter un œil nouveau dans l’amélioration continue des modèles développés par l’équipe (utilisation de données non structurées, données externes ) Livrables Données, Modèles programmes, résultats Note d’analyse de ces résultats Emissions de besoins Présentations pour le suivi des différents projets Supports divers pour les échanges avec les métiers et pour les comités de pilotage. Documentation de l’ensemble de la démarche dès le cadrage jusqu’au scripts des modèles. Expertises : ML supervisé et non supervisé (obligatoire), modélisation de risques climatiques (obligatoire), Computer Vision (souhaitable), modèles de détection d’outliers (souhaitable), techniques d’interprétabilité (souhaitable), LLM (souhaitable) Stack technique: Python (pandas, scikit, pyod, geopandas, kepler), Git, Docker, CI/CD, Mlflow, Databricks, sphinx, Pycharm, Deep Learning (Tensorflow Pytorch) + si possible : R, QlikSense
CDI

Offre d'emploi Intégration de l'IA dans un pipeline XR et Jumeau Numérique H/F H/F

INETUM
Publiée le

Saint-Ouen-sur-Seine, Île-de-France
Niveau d’études : Bac+5  Durée du stage : 26/30 semaines  Date de début :  à partir de janvier 2023  Lieu :  Région Parisienne, Toulouse ou Bordeaux  Description de l’entité   Acteur majeur de la transformation digitale, Inetum Business Solutions Industrie 4.0 est l’entité du Groupe Inetum dédiée à l’expertise des solutions de l’Industrie 4.0.   Vous aurez l’occasion de participer à des projets d'accompagnement et d'industrialisation de solutions digitales innovantes appliquées à l'industrie : Continuité Numérique, Digital Twin, intégration AR/VR, Plateforme réalité mixte industrielle et connectivité couches entreprises IT/OT (PLM, IoT, MES, MDM, SCADA et automates, infrastructure ...)    Votre mission  Sous la supervision directe d'un Manager Industrie 4.0, et dans le cadre de travaux internes et de projets clients, vous travaillerez sur l’intégration des nouvelles technologies comme l’IA ou le Deep Learning pour simplifier la chaine de traitement XR et faciliter l’accostage des Jumeaux Numériques.   Vous intégrerez une équipe projet jeune, dynamique, travaillant en Agile sur des activités de type :  • Mise en place technique et opérationnelle de plateformes XR et 3D (Unity, Blender, 3DSMax, Maya, Twinzo, Intraverse@Inetum …)  • Développement de scripts de simplification de traitement des données se basant sur les technologies d’IA, de deep Learning … ainsi que sur leur passage en Proof of Concept et MVP industriel  • Analyser et rédiger les spécifications techniques,  • Réaliser le développement/la configuration,  • Assurer l'intégration et la mise en production,  • Exécuter la recette/tests unitaire,  • Mise en place de démonstrateurs techniques, Promotion et démonstration, 
CDI

Offre d'emploi Docteur en Géosciences & IA H/F

AKKODIS
Publiée le

38k-45k €
Pau, Nouvelle-Aquitaine
La ligne de service Consulting & Solutions d'Akkodis France renforce ses équipes en région paloise et recrute un Docteur en Géosciences et Intelligence Artificielle H/F en CDI à Pau. Vous intégrez Akkodis Research qui est le centre de R&D du groupe Akkodis. Organisés en 10 lignes d'innovation réparties sur les axes Smarter Future & Cleaner Future, nous développons, en nous appuyant sur nos experts et référents techniques, les projets technologiques de demain. Description de la mission : - Accompagnement dans l'orientation stratégique des projets et dans la constitution des équipes projet - Gestion de projets liés aux Géosciences et à l'IA - Mise à jour régulière de la feuille de route et du planning des projets - Coordination et supervision de l'équipe projet. - Montée en compétences des collaborateurs - Promotion de la collaboration et de l'agilité au sein de l'équipe - Organisation et distribution des activités - Rédaction d'une documentation complète de l'outil - Rédaction du dossier CIR (Crédit Impôt Recherche) en collaboration avec l'équipe R&D - Rédaction d'articles scientifiques - Recherche de partenaires (académiques et industriels) et de financements - Contribution à la réponse aux appels d'offres - Veille sur l'évolution de l'état de l'art en Géosciences et Deep Learning
Freelance

Mission freelance Ingénieur Réseaux Sécurité Fire Wall (Palo Alto)

ENGIT
Publiée le

1 an
Savigny-le-Temple, Île-de-France
engIT recherche, pour l’accompagner dans ses projets, un ingénieur Réseaux et sécurité, disposant d’une expertise en déploiement de Firewall et plus particulièrement Palo Alto. engIT est une jeune société d’ingénierie, dédiée à l’innovation, animée par des passionnés de technologies et d’innovation en IT créée en 2017 à Sophia Antipolis et aujourd’hui présente à Nice, Aix, Lille, Paris et Monaco... Objets connectés, IA, Big Data, Deep Learning, véhicules autonomes, réalité augmentée, UX, logiciels embarqués, cyber sécurité, Blockchain, Cloud, mobilité, ne sont qu’une partie de nos centres d’interêts.
CDI

Offre d'emploi MACHINE LEARNING ENGINEER GCP H/F

Frank Recruitment Group Services Ltd
Publiée le

35k-50k €
Bordeaux, Nouvelle-Aquitaine
FRG Consulting rechercher pour l'un de ses clients, ESN dynamique et en pleine croissance, comptant une équipe d'environ 20 collaborateurs passionnés par les technologies Cloud, un Machine Learning Engineer H/F. Le candidat idéal aura au moins trois ans d'expérience dans le domaine, avec une solide expertise en codage, une connaissance approfondie des environnements Cloud (GCP et AWS) et une compétence avérée dans la mise en œuvre de tests unitaires. Responsabilités : Concevoir, développer et mettre en œuvre des solutions de Machine Learning Collaborer avec les équipes de développement pour intégrer des modèles ML dans des applications Cloud Optimiser les modèles et les algorithmes pour améliorer leurs performances Assurer la qualité du code en mettant en place des tests unitaires Participer à la conception et à l'amélioration des architectures Cloud pour les solutions ML Exigences : Au moins trois ans d'expérience professionnelle dans le domaine du Machine Learning Excellentes compétences en programmation (Python, Java, ou équivalent) Maîtrise des environnements Cloud, notamment GCP et AWS Expérience dans le déploiement de modèles ML en production Excellentes compétences en tests unitaires et en assurance qualité. Connaissance des bibliothèques de machine learning telles que TensorFlow, PyTorch, Scikit-Learn, etc. Fortes compétences en résolution de problèmes et en analyse Diplôme en informatique, en intelligence artificielle, en mathématiques ou dans un domaine connexe Compétences supplémentaires appréciées : Expérience en ingénierie logicielle, développement Web ou DevOps Connaissances en ingénierie des données et en manipulation de larges ensembles de données Familiarité avec d'autres services Cloud tels que Azure Compétences en apprentissage profond (Deep Learning) et en vision par ordinateur Avantages : Environnement de travail stimulant et innovant Possibilité de contribuer à des projets variés et stimulants Formation continue et opportunités de développement professionnel Si vous êtes passionné par le Machine Learning, que vous possédez les compétences requises et que vous recherchez un environnement dynamique pour développer votre carrière, n'hésitez pas à postuler.
Freelance

Mission freelance data scientist machine learning python

Innov and Co
Publiée le

1 an
400-650 €
Puteaux, Île-de-France
Projets de R&D et d’industrialisation de modèles de ML appliquées aux problématiques de maîtrise de la charge de sinistres, de lutte anti-fraude et de maîtrise des risques climatiques. Un environnement de travail dans le DataLab Groupe sous Databricks et données puisées dans le DataLake Groupe et mises à disposition dans le DataLab. Objet de la mission : Dans le cadre de l’accélération des expérimentations et préparation à l’industrialisation des modèles de Machine Learning, le portefeuille projets est constitué de plusieurs projets de Data Science sur les sujets suivant : - Détection de la Fraude - Analyse d’image & Gestion des sinistres - Provisionnement - Pricing (avec IA) - Prise en compte des risques climatiques Le consultant sera responsable de la cohérence technique des développements des projets de Data Science de l’équipe, du cadrage au déploiement en production. Missions principales du consultant : - Superviser techniquement les travaux des Data Scientist junior et stagiaires de l’équipe (cadrage technique, challenge et optimisation du code, méthodologie modélisation) - Être le référent technique de l’équipe concernant les travaux d’industrialisation des modèles effectués par l’IT, en challengeant notamment leurs approches - Contribuer ponctuellement sur quelques projets de Data Science - Rédiger et/ou superviser la documentation en conformité avec les normes et standards de l’équipe - Proposer des nouveaux outils, méthodes pour faire monter en compétence l’équipe - Apporter un œil nouveau dans l’amélioration continue des modèles développés par l’équipe (utilisation de données non structurées, données externes ) En fonction des projets, les travaux vont du cadrage des sujets, préparation des bases de données, engineering des features, écritures et tuning des modèles de ML, préparation à l’industrialisation sous forme de projets. Le mode de fonctionnement est Agile et la compréhension des métiers de l’assurance santé est souhaitable. Echange fréquent et régulier avec le métier portant les projets afin de s’assurer de la pertinence de la modélisation et de la cohérence des résultats. Livrables : • Données, Modèles programmes, résultats • Note d’analyse de ces résultats • Emissions de besoins • Présentations pour le suivi des différents projets • Supports divers pour les échanges avec les métiers et pour les comités de pilotage. • Documentation de l’ensemble de la démarche dès le cadrage jusqu’au scripts des modèles. Expertises requises : ML supervisé et non supervisé (obligatoire), modélisation de risques climatiques (obligatoire), Computer Vision (souhaitable), modèles de détection d’outliers (souhaitable), techniques d’interprétabilité (souhaitable), LLM (souhaitable) Stack technique: Python (pandas, scikit, pyod, geopandas, kepler), Git, Docker, CI/CD, Mlflow, Databricks, sphinx, Pycharm, Deep Learning (Tensorflow Pytorch) + si possible : R, QlikSense Qualité attendue : Esprit de synthèse et d’analyse en vue des différentes présentations de résultats, Qualité du code, rédaction de SFD des programmes et projets de Data Science, rigueur et qualité de documentation, Aisance relationnelle avec les interlocuteurs sur ces projets. Flexibilité pour un fonctionnement en mode agile et pour suivre le rythme accéléré des expérimentations. Adaptation aux contraintes organisationnelles des équipes travaillant sur le sujet et à l’organisation de l’entreprise. Haut degré d’autonomie et capacité de travail en équipe. Curiosité pour les métiers attendue.

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !