L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 58 résultats.
Offre d'emploi
Architecte / Tech Lead IA
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)
40k-65k €
Paris, France
Télétravail partiel
Redlab cherche un Leader technique de l’Usine IA de son client Il définit l’architecture des solutions IA/ML/LLM, organise les équipes techniques, garantit sécurité, performance et conformité (RGPD, AI Act). Missions clés Piloter les équipes techniques IA (développeurs, data scientists, ingénieurs). Concevoir des architectures scalables (microservices, event-driven). Encadrer l’industrialisation IA/ML/LLM (MLOps, GPU, cloud). Optimiser les processus métiers (AS-IS / TO-BE, BPMN). Coordonner les parties prenantes (métier, DSI, RSSI).
Offre d'emploi
Machine Learning Ops Engineer H/F
Publiée le
CI/CD
Github
Gitlab
12 ans
Monaco
Télétravail partiel
ASTERIA recherche, pour l’un de ses Clients basé sur Monaco, Machine Learning Ops Engineer H/F. VOTRE MISSION : Notre Client recherche un ML Ops Engineer H/F afin d’assurer l’industrialisation, la mise en production et la garantie de la fiabilité à grande échelle des cas d’usage de Data Science/Machine Learning. Le ML Ops Engineer H/F sera principalement le point entre l’équipe DATA au sens large (Data Engineer, DataScientist, Ingénieur IA) et l’équipe Opérations/DevOps. L’objectif principal sera d’industrialiser les projets de Machine Learning, de l’expérimentation jusqu’au déploiement en production, en garantissant robustesse, scalabilité et reproductibilité. Ce rôle technique est intégralement orienté Delivery/Développement Logiciel. Missions principales : Industrialisation & Pipelines (CI/CD/CT) : Concevoir et industrialiser les cas d'usage : structurer techniquement le projet, implémenter les tests, ... Concevoir et maintenir les pipelines d'intégration continue (CI), de déploiement continu (CD) et d'entraînement continu (CT) pour les modèles de ML. Automatiser les flux de travail de la donnée (Data Pipelines Airflow) en collaboration avec le Data Engineer. Garantir la reproductibilité des entraînements (versioning des données, du code et des modèles). Infrastructure & Déploiement : Conteneuriser les cas d'usage et modèles (Docker), orchestrer leur déploiement (Kubernetes). Mettre en place des stratégies de "Model Serving" (API REST, gRPC, Batch processing). Monitoring & Maintenance : Mettre en place des outils de surveillance pour suivre la santé des modèles en production. Détecter et alerter sur le Data Drift (dérive des données) et le Model Drift (baisse de performance). Gérer le cycle de vie complet des modèles (re-training, mise hors service). Mise à disposition des résultats : Être capable de développer des interfaces pour mettre à disposition et valoriser les résultats VOS CONDITIONS DE TRAVAIL : Date de démarrage mission envisagée : 02/02/2026 CDI (seuls les ressortissants européens ou détenteurs d'un titre de séjour émis par la Préfecture des Alpes-Maritimes (06) sont éligibles à un emploi en Principauté) : Autres conditions contractuelles envisageables, nous contacter Télétravail : jusqu’à 2 jours / semaine
Offre d'emploi
Responsable projets Data BI - CDI - Belgique - Bruxelles
Publiée le
BI
24 mois
70k-77k €
385-770 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Responsable Projet Data (H/F) - poste en CDI direct Liaisons fonctionnelles : À l'intérieur de l'entreprise : Le Directeur général et l'ensemble des salariés A l'extérieur : • Les squads Data, les squads en charge des données de référentiel, le service Etudes et Mesures • Les Direction Systèmes d'informations, les responsables des pays (Espagne / Pologne /Portugal / France / Slovénie / Luxembourg) • Prestataires : les intégrateurs, Ingénieur Data, Directeur de projet externe • Industriels (clients) Description générale du poste : Le Responsable projet Data (H/F) joue un rôle central dans la gestion des données, qui portent sur l'intégralité de la fiabilité des prestations vendues aux industriels. À ce titre, il doit définir et mettre en œuvre la stratégie globale de gestion des données disponibles, maintenir l'existant et identifier les opportunités, tout en s'inscrivant dans les modalités définies par le Mouvement. C'est un poste clé qui comporte les dimensions suivantes : - Techniques : manipulation de la donnée, utilisation approfondie des outils mis à disposition, - Stratégiques : enjeux, opportunité, sécurité, - Relationnelles : avec les pays, la DSI, une multitude d'acteurs variés - Une forte sensibilité sur la dimension gestion des systèmes d'informations est attendue Les missions principales : • assurer la qualité et la fiabilité des données en coordonnant avec des acteurs internes - externes • contrôler et mettre à jour les données référentiels spécifiques à notre client • construire, maintenir et faire évoluer les rapports mis à disposition • contrôler et valider la sécurité de l'accès aux données (rapports et données) • piloter la mise en qualité de l'ensemble des données, avec les pays • Participer au développement des services
Offre d'emploi
Data Engineer (15)
Publiée le
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
400-470 €
Île-de-France, France
Télétravail partiel
Contexte de la Mission Rattachement Direction Data (Direction du Numérique). Intégration à l'équipe Gold Pilotage (PO + 2 DE) qui alimente le pilotage des offres numériques via le produit Data4All. Stack technologique : Python, SQL, dbt, BigQuery, Airflow, Terraform/Terragrunt, autres services GCP. Activités Attendues Maintenir et faire évoluer Data4All et les dispositifs de l'équipe ; accompagner les utilisateurs ; mettre en place le contrôle qualité des données. Concevoir et maintenir des modèles et pipelines robustes et scalables ; organiser et structurer le stockage. Mettre en place et maintenir des infrastructures scalables, sécurité et stabilité des environnements, workflows CI/CD. Gouvernance et documentation (qualité, fiabilité, intégrité), partage de bonnes pratiques et veille ; participation aux instances Data Ingénieurs.
Offre d'emploi
Consultant en Machine Learning H/F
Publiée le
Gitlab
GitLab CI
Google Cloud Platform (GCP)
12 mois
50k-70k €
500-570 €
Île-de-France, France
Télétravail partiel
En interaction avec les membres de l’équipe, la prestation consistera à : • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine • Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Offre d'emploi
Data Engineer (21)
Publiée le
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
400-660 €
Île-de-France, France
Télétravail partiel
Descriptif du poste La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Au sein de l'équipe Bronze, la prestation se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d'un product owner, d'un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l'orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l'infrastructure. Prestations attendues Prestation de cette équipe Collecter et centraliser les différentes sources de données non homogènes Assurer la conformité et la sécurité des données Participer aux initiatives de gouvernance des données Prestation en data engineering En interaction avec les membres de l'équipe, la prestation consiste à : Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe Construire et maintenir de pipelines data robustes et scalables Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l'évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances de data engineering Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine
Offre d'emploi
Data Engineer (14)
Publiée le
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Informations Générales Contexte de la Mission Rattachement Direction Data (Direction du Numérique). Intégration à l'équipe Gold Pilotage (PO + 2 Data Engineers) en charge de la mise à disposition des données pour le pilotage des offres numériques via le produit Data4All. Stack : Python, SQL, dbt, BigQuery, Airflow, Terraform/Terragrunt, services GCP. Activités Attendues Maintenir et faire évoluer Data4All et les dispositifs de l'équipe ; qualité des données et support aux utilisateurs. Concevoir & maintenir des modèles de données et pipelines robustes et scalables ; organiser/structurer le stockage. Mettre en place et maintenir des infrastructures scalables, assurer sécurité/stabilité des environnements, workflows CI/CD. Contribuer à la gouvernance (qualité, fiabilité, intégrité), documentation et veille ; participation aux instances Data Ingénieurs.
Offre d'emploi
Lead Consultant Machine Learning Engineering H/F
Publiée le
GitLab CI
Google Cloud Platform (GCP)
Python
12 mois
40k-45k €
600-680 €
Île-de-France, France
Télétravail partiel
En interaction avec les membres de l’équipe, vos missions consisteront à : • Définir l'architecture et la feuille de route technique, en tenant compte des exigences de performance, de scalabilité et de sécurité • Accompagner les membres de l’équipe pour garantir la qualité du code et du modèle • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine • Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Offre d'emploi
Machine Learning Engineering
Publiée le
Agile Scrum
Big Data
CI/CD
12 mois
40k-48k €
500-570 €
Paris, France
Télétravail partiel
Afin d’améliorer la personnalisation de l’expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. La prestation de l'équipe : Créer les premiers cas d’usage en lien avec la personnalisation de l’expérience utilisateur basés sur de la recommandation utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances Prestations attendues : En interaction avec les membres de l’équipe, la prestation consistera à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l’évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Mission freelance
Concepteur Développeur Big Data
Publiée le
Apache Spark
AWS Cloud
Azure
12 mois
400 €
Courbevoie, Île-de-France
Télétravail partiel
Mission Concepteur Développeur Big Data – Société de l'Énergie Localisation : Courbevoie (3 jours/semaine sur site) Tarif max : 400€/jour Démarrage : 05/01/2026 Durée : 12 mois (fin 04/01/2027) – prolongeable Expérience requise : 4-5 ans minimum Prestations principales : Analyse besoins RH/Finance + rédaction spécifications techniques Conception/développement pipelines ETL/ELT (Spark, Hadoop, Databricks, Snowflake) Intégration sources données/API + contrôle qualité Déploiement cloud (AWS/Azure/GCP) ou clusters Hadoop/Spark Optimisation performances (partitionnement, tuning clusters) Tests unitaires/intégration + revues code Maintenance évolutive, support incidents, veille techno Compétences obligatoires : Big Data, Hadoop, Spark, Python PostgreSQL, Databricks Livrables : Spécifications techniques + diagrammes Code source/scripts + tests complets Documentation exploitation + rapports performances Plan déploiement/rollback Cette mission essentielle vise à confier à un Ingénieur Data expérimenté la responsabilité complète du cycle de vie des solutions de traitement de données pour les domaines RH et Finance . Le professionnel doit maîtriser les technologies Big Data (Spark, Hadoop) , les plateformes analytiques (Databricks, Snowflake) et les environnements Cloud (AWS, Azure, GCP) , afin de garantir la livraison de systèmes ETL/ELT performants, sécurisés et alignés sur les objectifs business.
Offre d'emploi
Data Engineer Senior
Publiée le
Python
SQL
1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Contexte de la mission Au sein de la Direction Data (Direction du Numérique), intégration à l'équipe Bronze (PO, data steward, 2 data engineers) au cœur de la plateforme Data. Stack principale : Python, Spark, SQL (traitements), Airflow (orchestration), Cloud Storage & Delta Lake (stockage), services cloud (BigQuery, Dataproc, Pub/Sub, Cloud Storage), Terraform/Terragrunt (infra). Activités attendues Concevoir et maintenir des pipelines data robustes et scalables ; organiser et structurer le stockage. Mettre en place et maintenir des infrastructures scalables ; assurer sécurité et stabilité des environnements. Construire et maintenir les workflows CI/CD ; accompagner l'équipe sur l'exploitation et requêtage. Gouvernance et conformité (qualité, sécurité, conformité), documentation, veille et participation aux instances Data Ingénieurs.
Offre d'emploi
Data Engineer Senior
Publiée le
Apache Kafka
Apache Spark
Hadoop
Paris, France
Télétravail partiel
En tant qu’Ingénieur Data Senior, vous jouerez un rôle clé dans la conception, le développement et l’optimisation de solutions data innovantes pour le secteur bancaire. Vous serez un membre essentiel de l’équipe Data Engineering et collaborerez avec des experts métiers, data scientists et développeurs pour transformer les plateformes digitales de nos clients. Vos missions principales Concevoir, développer et maintenir des solutions big data robustes et évolutives avec Hadoop, Spark, Kafka… Mettre en œuvre des pipelines de données temps réel et batch pour des cas d’usage complexes Garantir la qualité, la sécurité et la conformité des données à chaque étape du cycle de vie Intégrer des solutions de streaming avec Kafka pour des analyses quasi temps réel Développer et maintenir des microservices en Node.js Encadrer les ingénieurs juniors et promouvoir les bonnes pratiques
Mission freelance
Data Engineer Senior Secteur Media
Publiée le
Apache Airflow
Apache Spark
BigQuery
6 mois
520-640 €
Île-de-France, France
Télétravail partiel
Contexte et détails de la mission Définition du besoin La Direction Technique du Numérique mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Au sein de l’équipe Bronze, la prestation se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. Prestations attendues : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation en data engineering En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances de data engineering • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Modalités de la prestation : Présence sur site requise en fonction des besoins de la prestation et a minima équivalente à 50% du temps de la prestation. Astreintes week-end et jours fériés : Non Matériel performant à fournir par le prestataire : Pour ce faire, les postes informatiques utilisés par le prestataire lors des prestations doivent avoir : - Un antivirus à jour et activé - Un mécanisme de chiffrement du disque activé - Un système d'exploitation à jour de ses correctifs de sécurité - Un mécanisme de verrouillage du poste activé - Un moyen de stockage sécurisé des mots de passe. Usage de la langue française : L'exécution de chaque marché spécifique nécessite l'usage principal et permanent de la langue française dans les rapports avec les parties prenantes (documents, réunions, appels téléphoniques, courriers électroniques…). Les personnes en charge de l‘exécution des prestations doivent maîtriser parfaitement le français (et toute autre langue qui serait précisée après information dans le DCE du marché spécifique concerné) dans le contexte et environnement.
Offre d'emploi
CTO / Lead Tech
Publiée le
Développement
Strasbourg, Grand Est
Construction de la plateforme data & mobile MyRacingCoach Localisation : Strasbourg, Grand Est, France Type de contrat : CDI / Freelance Date de début : Dès que possible Rythme : Télétravail et hybride Contexte : MyRacingCoach développe une application mobile dédiée à l’analyse de données GPS et télémétriques afin d’aider les pilotes de course à progresser plus vite. Notre cœur de valeur repose sur deux modules principaux : • un module d’analyse des données (trajectoire, freinage, vitesse, cohérence du pilotage), • un module d’intelligence artificielle capable de produire des recommandations personnalisées. Ces briques techniques deviennent centrales pour accompagner les pilotes dans leur performance globale. Nous entrons maintenant dans une nouvelle phase : passer de prototypes et POC métiers à une infrastructure robuste, intégrant les algorithmes, les flux de données, le backend, les APIs et l’application mobile. Le rôle du CTO est de concevoir, structurer et superviser toute l’architecture technique, tout en constituant une équipe solide. Missions principales : • Définir l’architecture globale de la plateforme (backend, APIs, base de données, pipelines data, sécurité). • Encadrer le développement des micro-services d’intégration, de traitement et d’exposition des données. • Collaborer étroitement avec l’ingénieur data pour industrialiser les algorithmes métiers. • Travailler avec le développeur mobile pour garantir une expérience fluide et cohérente. • Mettre en place les environnements cloud, CI/CD, monitoring et bonnes pratiques de qualité. • Structurer et faire grandir l’équipe tech (recrutement, mentoring, organisation). • Veiller à la scalabilité et à la performance sur des volumes croissants de sessions de pilotage. • Définir la roadmap technique avec le CEO et contribuer fortement à la vision produit.
Offre d'emploi
Data Analyste (24)
Publiée le
Piano Analytics
PowerBI
1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Contexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction du Numérique a en effet de forts enjeux de développement des usages numériques de contenus propres ou issus des chaînes d'une grande entreprise de médias. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils d'aide à la décision et des outils de pilotage. La Direction Data recherche une prestation en Data Analyse pour accompagner la direction de la croissance des offres (CRM, Acquisition, Social, Partenariat – Chaîne et FAI). Prestations attendues La prestation consistera à participer à : La création de nouveaux rapports automatiques Power BI qui auront pour objectif de mesurer la performance des sites/applications (prise en compte des besoins des équipes internes, détermination des sources à utiliser et création du cahier des charges pour les data ingénieurs, réalisation d'une maquette, création du dashboard, itérations mode projet). Le maintien du bon fonctionnement des dashboards existants sur Power BI. L'accompagnement et le coaching des équipes internes sur l'intégration de la data dans leur processus de décision et de priorisation (Piano Analytics, Nielsen, marqueur interne). La mesure et l'analyse des données issues de nos différents outils afin de mieux comprendre les usages (web analytics, consommation vidéos vues), en collaboration avec l'équipe études. L'accompagnement des équipes internes dans l'identification des indicateurs/KPIs nécessaires au suivi de leurs activités, et avoir une vision transverse sur l'ensemble des KPIs utilisés par les équipes produit et métier et leurs méthodes de calcul. Le partage de son expertise afin de déployer notre marqueur interne sur d'autres produits. L'identification des besoins de prérequis de tracking pour mettre en place ces analyses et les remonter aux équipes internes.
Offre d'emploi
Lead ML Engineering
Publiée le
Machine Learning
3 mois
Paris, France
Télétravail partiel
la prestation consistera à : • Définir l'architecture et la feuille de route technique, en tenant compte des exigences de performance, de scalabilité et de sécurité • Accompagner les membres de l’équipe pour garantir la qualité du code et du modèle • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Expertises requises pour réaliser la prestation de Lead Machine Learning Ingenieur : • Au moins 5 ans d’expérience dans un environnement data/machine learning • Expériences dans le développement de modèles de machine learning • Expériences dans le déploiement en production de modèles de machine learning • Expériences sur la Google Cloud Platform : Composer/CloudSQL/CloudRun/IAM • Expériences avec des technologies de type Flask, FastAPI, SQLalchemy, Pgvector, Pandas, Hugging face • Expériences intégrant les langages Python et SQL • Expériences intégrant Terraform et Terragrunt • Solides expériences intégrant du Machine Learning, Deep Learning et des concepts liés à l’IA • Solides connaissances des modèles et systèmes de recommandation • Solides connaissances en data : structures de données, code, architecture • Expériences utilisant Gitlab et Gitlab CI/CD • Capacité à vulgariser et à communiquer sur des aspects purement techniques • Capacité à accompagner et à motiver une équipe technique • Expériences en méthodes Agile : de préférence Scrum ou Kanban
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Facturation électronique 01 : Rappel du calendrier !
- Calcul de l'indemnité de la rupture conventionnelle
- Futur freelance architecte logiciel
- Ingénieur preuve de concept, logiciel, simulateur, démonstrateur
- Motif légitime de report de rendez-vous France Travail (création entreprise freelance)
- Création de site Wordpress : BIC ou BNC ?
58 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois