L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 347 résultats.
Mission freelance
Ingénieur DATA – Coordonnation & Support Technique IA Industrielle
Publiée le
3DEXPERIENCE (3DX)
1 an
400-550 €
Belgique
Télétravail partiel
Missions Coordination : Piloter et structurer l’automatisation de l’alimentation de la plateforme 3DEXpérience depuis Publisher, en exploitant les techniques d’IA pour faciliter la gestion et la migration des schémas de données. Documenter, préparer et suivre les scripts et workflows de migration automatisés, assister l’identification des correspondances data via IA (machine learning, NLP…). Proposer les premiers use cases DATA & IA opérationnels pour la ligne de production. Appuyer l’équipe UNS sur la structuration des données industrielles pour usages IA futurs. Assurer la veille et le reporting sur les sujets Data & IA, optimiser la collaboration multi-métiers. Missions Techniques : Être le bras droit du coordinateur Data, prendre en charge l’implémentation des scripts et workflows de migration de données (DataPrep, ETL, IA), sur données simulées ou réelles. Concevoir et tester des use cases IA “production ready” : supervision process, maintenance prédictive, contrôle qualité automatique, etc. Structurer les datasets pour l’entraînement et le déploiement sur la ligne (règles de qualité, normalisation, automatisation des flux). Assurer la documentation technique et la transmission des compétences vers les équipes.
Mission freelance
Tech Lead Data Engineer - IoT / Java & Cloud
Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)
12 mois
720-730 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Tech Lead Data IoT – Java & Cloud" pour un client dans le secteur du retail. Description⚡ Le Contexte Au sein d'une plateforme IoT gérant des millions d'objets connectés (Smart Devices, vélos, équipements sportifs), nous recherchons le Référent Technique Data . Il ne s'agit pas d'un poste de Data Engineer classique qui ne fait que des pipelines, mais d'un rôle de Software Engineer / Tech Lead spécialisé dans le traitement de la donnée. Vous êtes le "Tech Lead Data" unique de la plateforme : vous portez la responsabilité technique et architecturale de tout ce qui touche à la donnée au sein de l'écosystème IoT. 🎯 Votre Mission : Architecturer et Construire le Backend Data Votre rôle est central : vous construisez le moteur qui ingère, traite et structure les événements remontés par les objets connectés. Vous êtes garant de la cohérence de la donnée, du capteur jusqu'au stockage. 1. Développement Backend & Traitement IoT (80-90% du poste) Développement Java : Concevoir et développer les briques Backend chargées du traitement des flux (Temps Réel & Événementiel). Gestion de la complexité IoT : Gérer les problématiques de connectivité instable. Exemple concret : Reconstituer une session de sport ("Ride") complète même en cas de perte de réseau, gérer les règles de début/fin de session automatiquement. Privacy by Design : Intégrer les contraintes RGPD et le respect des consentements utilisateurs directement dans l'architecture de collecte (filtrage à la source, anonymisation). 2. Architecture & Lead Data Référent Technique : Vous êtes le point de contact unique pour toutes les décisions impactant la data sur la plateforme. Conseil & Gouvernance : Vous auditez et conseillez les autres équipes Backend. Si une feature touche à la structure de la donnée, vous intervenez pour valider le modèle. Modélisation : Définir les modèles de données pour garantir leur exploitabilité future. 3. Analytics & Maintenance (10% du poste) Maintenir les flux ETL existants et les jobs d'analytics. Intervenir ponctuellement sur du Spark / Scala pour des besoins de BI ou de Data Science. 🛠 La Stack Technique Un environnement Multi-Cloud et moderne : Cloud Principal : GCP (Google Cloud Platform). IoT : AWS IoT Core (gestion de la flotte et connectivité). Langage Principal : Java (Expertise demandée). Analytics/Data : Databricks , Spark, Scala.
Offre d'emploi
CHEF(FE) DE PROJET TECHNIQUE / SYSTEM OWNER - Expert (>10 ans)
Publiée le
Apache Kafka
Boomi
GoAnywhere MFT
1 an
Île-de-France, France
Télétravail partiel
Au sein de la DSI-PDV, rattaché(e) au pôle Encaissement et Promotion du domaine Encaissement et Monétique , le/la Chef(fe) de Projet Intégration et Flux intervient dans le cadre du programme NEMO (Nouvel Encaissement Mousquetaires Omnicanal). Il/elle pilote le chantier d’intégration de la nouvelle solution d’encaissement au sein du SI du Groupement, en s’appuyant sur des interfaces temps réel et différées conformes aux patterns d’échange définis. Responsable de la conception, de la validation et de la mise en œuvre des flux (incluant la supervision), il/elle coordonne l’ensemble des acteurs techniques et métiers impliqués, assure le suivi budgétaire, le respect des délais et du périmètre, ainsi que le reporting auprès des instances de gouvernance du programme. À ce titre, il/elle contribue à la rédaction et à la validation des contrats d’interfaces, des dossiers de conception et des cahiers des charges, prépare et sécurise les mises en production, et garantit l’application des standards d’architecture, de qualité, de sécurité et de gouvernance du Groupement, dans un environnement technique exigeant reposant notamment sur GoAnywhere MFT, Boomi, Kafka et Solace.
Offre d'emploi
Chef de projet CDP DATA
Publiée le
JIRA
18 mois
40k-45k €
100-600 €
Paris, France
Télétravail partiel
Contexte : Dans le cadre de plusieurs projets Data sont en cours : conformité de la collecte et des usages des données, identification des nouveaux cas d’usage d’activation des données utilisateurs, constitution du socle de données utilisateurs, développement de la connaissance des utilisateurs, gouvernance des données… Dans ce cadre, la Direction Data recherche un chef de projet pour la gestion opérationnelle des cas d’usages d’activation publicitaires et d’acquisition issus de la CDP : Mediarithmics. La Customer Data Platform Mediarithmics a été déployée en 2020. Elle est implémentée sur la plupart des offres. Les données issues de la CDP servent actuellement de cas d’usages à destination des équipes métiers Acquisition, CRM . MISSIONS : Les tâches confiées couvrent la mise en place de la collecte, le suivi du déploiement, l’exploitation et la maintenance de notre CDP mais aussi la gestion de projets data transverses (suivi de la mise en place de solutions face à la fin des cookies tiers, amélioration de l’usage de la donnée en fonction des cas d’usage CRM (Email & Push) en place, création de nouveaux cas d’usages transverses…). 1. Répondre aux différents besoins des équipes métiers CRM (Email & Push) - Challenger les besoins et identifier les projets/chantiers à mettre en place : a) création de nouveaux segments au sein de l’outil b) mise en place de nouveaux flux d’envoi de donnée c) mise en place de nouvelles collectes de données d)… - En tant que point d’entrée pour ces équipes, animer les points hebdo sur leurs besoins et l’évolution des projets en cours - Proposer et défendre la mise en place de nouveaux cas d’usages liées aux nouvelles features de l’outil CDP Mediarithmics, aux nouvelles collectes de données, … - Concevoir et animer des workshops de cas d’usage avec les équipes des offres & des équipes métiers pour développer l’usage de la CDP (cas d’usage par métier & transverse) 2. Participer au run et à l’amélioration continue la CDP Mediarithmics (collecte, flux, dash, …) pour répondre aux besoins métiers CRM (Email & Push) - Création de segments dans la CDP et suivi de l’envoi de données dans les applicatifs - Pilotage de la donnée Mediarithmics en créant des dashboards de Data Quality, d’insights et de mesure, - Définir les plans de marquage de la CDP sur chacune des offres/ environnements (implémentation ou corrections), accompagner les équipes dans l’implémentation et veiller à ce que la collecte correspondant aux souhaits (rédiger et réaliser les recettes, …) - Concevoir et cadrer la mise en place de nouveaux projets / implémentation de nouvelles features ou de nouvelles données / mise en place de correctifs pour donner suite à des incidents : pré-requis, risques, parties prenantes, facteurs clés de succès… - Rédiger les documentations nécessaires au partage de la connaissance (CDP, cas d’usage, bonnes pratiques, … ) à destination des équipes., - Assurer la relation, la coordination et les évolutions des outils avec l’éditeur Mediarithmics 3. Gérer et suivre la mise en place des projets / cas d’usage pour les équipes CRM (Email & Push) - Organiser et animer les ateliers de conception et de cadrage avec les équipes des offres, les équipes techniques et les experts métiers - Organiser et animer les comités de pilotage des projets confiés - Coordonner et communiquer les actions entre les parties prenantes : Data, Technique, Offres numériques, Croissance des offres, Stratégie éditoriale, Equipe RGPD, … - Coordonner et communiquer avec les différents métiers en cohérence avec l’objectif projet et la roadmap - Partager les alertes projet aux différentes parties prenantes, - Identifier et partager les impacts entre les roadmaps des différents métiers, - Garantir l'avancée des projets et la qualité des livrables, - Assurer la création et l’évolution de la documentation projet / cas d’usage - Suivre, mesurer & communiquer sur les performances des projets, de l’outil CDP ou des cas d’usages - Prendre en charge, dans une démarche d’amélioration continue, les actions nécessaires pour améliorer les performances tout au long du cycle de vie des projets 4. La rédaction de livrables attendus - Rédiger les supports des instances Projet (ODJ, CR) et les supports de vulgarisation projet, - Participer à la définition, au suivi et aux évolutions de la roadmap projet, - Rédiger les spécifications fonctionnelles et documentation d’intégration des cas d’usages et/ou des outils au sein de Confluence, - Tenir la documentation liée au référentiel de segments - Compléter la documentation liée aux cas d’usage réalisées et à leur performance 5 - Nous attendons aussi du candidat d’être force de proposition sur : - Des méthodologies projets (best practices) permettant de tracer et d’améliorer a) Les alertes projet b) Les arbitrages pris (opérationnels et stratégiques), c) Les actions à venir et les parties prenantes impliquées, d) Les risques et leur mitigation
Mission freelance
Data Engineer DENODO
Publiée le
Dataiku
1 an
Île-de-France, France
Télétravail partiel
Nous recherchons un(e) Data Engineer maîtrisant Denodo , capable d’assurer à la fois le MCO/MCS de la plateforme et la création de vues pour les équipes projets. ✅ Assurer le MCO / MCS de la plateforme Denodo ✅ Optimiser les performances et l’architecture de la plateforme ✅ Administrer Denodo : monitoring, tuning, gestion des connexions, sécurité ✅ Créer et optimiser des vues Denodo pour les projets métiers ✅ Accompagner les équipes n’ayant pas de compétences Denodo internes ✅ Contribuer à améliorer la virtualisation de données et la qualité de service ✅ Participer au support central et garantir une plateforme fiable et performante
Offre d'emploi
Data Ops
Publiée le
DevOps
Python
40k-70k €
Levallois-Perret, Île-de-France
Télétravail partiel
Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte - Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée. - Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. - Une plateforme d'exécution des modèles de Datascience, Sparrow Serving. - Un outil de Community Management, Sparrow Academy. L’équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel à une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Dans ce contexte, nous faisons appel à une prestation en assistance technique. les missions sont : - Administration/Exploitation/Automatisation système d’exploitation de nos clusters - Build et optimisation d’images Docker + RUN de nos 400 containers de production (>500 utilisateurs). - Construire, porter la vision technique de la plateforme et piloter les choix technologiques et d’évolution de l’architecture. - Faire de la veille et se former aux technologies les plus pertinentes pour notre plateforme de data science afin de continuer à innover. - Rédaction de documents techniques (architecture, gestion des changes et incidents). - Production de livrables de qualité et partage des connaissances à l’équipe. Notre stack technique : - Infrastructure / DevOps : GitLabCI/CD, GitOps ( ArgoCD ). Cloud privé BNP. - Containers: Docker, Kubernetes. Profil recherché : - Compétences avancées sur Kubernetes (Architecture, Administration de Clusters) - Connaissances sur la gestion des secrets (Vault) - Bonnes compétences réseau : reverse proxy (Traefik), authentification (Keycloak, JWT, OIDC). - Bonnes connaissances de GitLab et des processus de CI/CD. - Connaissances de l’approche GitOps ( ArgoCD ) - Compétences sur l’observabilité dans un contexte Kubernetes ( Prometheus, AlertManager, Grafana ) - Connaissances en bases de données relationnelles (PostgreSQL) appréciées. - Anglais correct à l’écrit et à l’oral. - Profil rigoureux. Les sujets traités par l’équipe sont variés : - Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; - Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; - Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité); - Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; - Être force de proposition et participer aux POCs. Stack Technique de l’équipe : - Langages : Python, Golang, Bash - GNU/Linux - Kubernetes - Observabilité : Prometheus, Thanos, AlertManager, Grafana - Sécurité : Vault - DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize, CUE/Timoni - Cloud services : Certmanager, Redis, Jaeger, ELK, MinIO, PostgreSQL, ClickHouse, External-DNS
Mission freelance
Expert en réseau et sécurité Sénior
Publiée le
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Expert Réseau et Sécurité Datacenter afin d'assister le client dans la conception, mise en œuvre et industrialisation Infra réseau et sécurité au sein des datacenters. - Etude et analyse des opportunités d'évolution des infras Réseau & Sécurité - Mise en œuvre de projets d'infras réseau & sécurité - Support technique N3 sur les technologies réseau & sécurité Les principales compétences attendues : - Expérience technique avancée en Proxy Web de ZScaler - Expérience technique avancée en Firewalling (Checkpoint, Fortinet et Palo Alto) - Expérience technique avancée en F5 (Loadbalancing, APM) Golbalement l'équipe a pour mission l'élaboration de la stratégie, la conception, la mise en œuvre technique et le support des Infras en datacenter (Cloud privé on premise), en l'occurrence les infras de Virtualisation, Stockage et le socle Réseau datacenter
Mission freelance
Business Analyst - Data Platform
Publiée le
Business Analyst
Control-M
Microsoft SSIS
1 an
400-600 €
Paris, France
Télétravail partiel
Mission : Mission située au sein de la DSI au niveau de l’équipe Data et Reporting d'un acteur financier. La mission consistera à être Business Analyst sur la plateforme Data du SI. Analyse des besoins : Comprendre les besoins des parties prenantes et des utilisateurs finaux afin de définir des exigences claires pour des projets liés aux données. Cadrage de projet : Travailler avec des équipes techniques de la DSI (architectes, data engineers, MOA/MOE des autres applications), autres DSI du groupe, et non techniques (direction financière, conformité, direction des risques, direction commerciale) afin de cadrer un projet (solution, chiffrage, planning, …) Pilotage de projet : définir et suivre les engagements / assurer le reporting et le dialogue avec les interlocuteurs métiers Analyse des demandes du métier : Sur la base d’une expression de besoins ou de spécifications fonctionnelles générales, réalisation de l’analyse, en lien avec les développeurs, puis établissement des chiffrages et du planning de mise en œuvre des évolutions. Spécifications fonctionnelles : A partir des expressions de besoins, rédaction des spécifications fonctionnelles détaillées à destination des équipes de développement. Préparation et réalisation des recettes : Rédaction des cahiers de recettes et validation du bon fonctionnement technico-fonctionnels des applications. Assistance et support : Assurer l’assistance auprès des utilisateurs, analyser les dysfonctionnements et proposer des solutions correctives/palliatives chiffrées.
Mission freelance
Ingénieur Data Power BI (H/F)
Publiée le
BI
6 mois
400-500 €
Nantes, Pays de la Loire
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 📍 Lieu : Nantes (44) + déplacements mensuels à La Roche Sur Yon (85) 🏠 Télétravail : 2 jours par semaine ✔ Démarrage Février 2026 - mission de 6 à 9 mois ✏ Freelance, portage salarial ou CDI 🌎Contexte international : Anglais lu et écrit indispensable 👉 Contexte client : Dans le cadre de notre développement, nous recherchons un Ingénieur Data Power BI (H/F) afin d'accompagner un de nos clients. Au sein de la DSI du client, tes responsabilités principales sont : Former un binôme avec un chef de projet interne Participer au projet de déploiement de l'ERP SAP Business One au niveau Européen Implémenter le volet Data BI de l'ERP Migrer le legacy DataServices vers Power BI Participer à la mise en place de MS Fabric
Mission freelance
Administrer moteurs bases de données et plateformes data
Publiée le
Google Cloud Platform (GCP)
Oracle
PostgreSQL
1 an
370-390 €
Tours, Centre-Val de Loire
Télétravail partiel
Missions principales L’ingénieur de Production data assure : L’administration, la sauvegarde, la restauration et l’optimisation de bases de données et plateformes data dans le respect des processus client on premise et cloud. La gestion des incidents et participe à la résolution des problèmes Installation, configuration, maintenance et évolution des plateformes (Greenplum, couchbase et elasticsearch, etc) Maintien en conditions opérationnelles des plateformes Suivi et amélioration des performances (mémoire, disques, index, requêtes), Stratégies de sauvegarde, restauration et supervision La gestion des accès et création des comptes autorisés à se connecter aux plateformes De la veille technologique La gestion documentaire du périmètre Astreinte
Offre d'emploi
Ingénieur·e Vision
Publiée le
3D
Big Data
IA
Meurthe-et-Moselle, France
Télétravail partiel
En collaboration avec nos Ingénieurs (Data Science, IA, Développeur…) et nos Techniciens Vision chez APREX Solutions, vous participez au développement de nos produits, de la description fonctionnelle jusqu’à la mise en service sur site, pour nos clients issus de secteurs d’activités variés. Plus particulièrement, vous : – Accompagnez notre équipe commerciale dans les phases de pré-études et d’analyse des besoins clients, – Identifiez la technologie de vision la plus adaptée à la réalisation et l’intégration du dispositif à partir du cahier des charges et des échantillons clients, – Assurez la conception matérielle et algorithmique du dispositif à l’aide des outils logiciels développés par nos soins et du matériel que vous aurez identifié, – Gérez vos projets dans le respect des délais et des coûts, définis en amont, – Réalisez la proposition technique complète de la solution pour votre client, – Participez à la mise en service de la solution chez le client et à la formation des utilisateurs.
Offre d'emploi
Data Architecte - Lyon
Publiée le
AWS Cloud
Azure
Databricks
60k-70k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Tech Lead Data Engineering / Databricks – Mission longue
Publiée le
Management
12 mois
400-660 €
Île-de-France, France
Télétravail partiel
Nous recherchons pour l’un de nos clients grands comptes un Tech Lead spécialisé Data Engineering afin de rejoindre une squad produit au sein d’un environnement moderne et exigeant. 🎯 Objectif de la mission Contribuer au delivery des produits data, piloter les choix techniques, encadrer les bonnes pratiques, et garantir la qualité logicielle au sein d’une équipe pluridisciplinaire (Data Engineers, Data Scientists, Software Engineers…). 🎤 Soft skills Leadership technique + accompagnement d’équipe Communication structurée et vulgarisation technique Rigueur, autonomie et sens du delivery Capacité à interagir avec de multiples parties prenantes
Mission freelance
Développeur CRM Salesforce Marketing Cloud
Publiée le
Data Lake
Salesforce Sales Cloud
1 an
400-550 €
Nantes, Pays de la Loire
Télétravail partiel
Recherche – Développeur CRM Salesforce Marketing Cloud (Nantes | 2 à 3 jours/semaine) Dans le cadre d’une consultation sur le contrat-cadre AST & Digital , nous recherchons un Développeur CRM Salesforce Marketing Cloud (expérimenté ou senior). 📅 Démarrage prévu : 4 décembre 2025 ⏱️ Rythme : mi-temps (2 à 3 jours par semaine) 📍 Présence sur site : lundi, mardi et jeudi 🎯 Missions principales Développer, maintenir et intégrer des solutions Salesforce Marketing Cloud : Emails, Push, Journey Builder, Automations, Datorama. Créer et personnaliser des parcours clients et des contenus dynamiques (HTML, AMPscript, responsive design, gestion de Data Extensions, Interactive Email Form). Implémenter des API et SDK SFMC sur applications mobiles natives, gérer la synchronisation CRM/Datalake et les processus automatisés RGPD . Assurer la gestion opérationnelle , les releases , le monitoring et l’ optimisation des performances (tracking, délivrabilité, réputation IP). Apporter support et conseil aux équipes métiers et digitales, dans un environnement agile et collaboratif.
Offre d'emploi
Data Analyst
Publiée le
KPI
Microsoft Power BI
Python
1 an
40k-45k €
400-600 €
Paris, France
Télétravail partiel
Descriptif du poste Dans le cadre de la production et de la maintenance des KPI/KRI pour l'entité, la mission comprend : Le maintien de la production actuelle des KPI/KRI, en assurant la mise à jour des formules de calcul selon les évolutions fonctionnelles et réglementaires. L'identification et la définition des nouveaux KPI/KRI à produire sur l'ensemble du périmètre, ainsi que la participation à leur validation en lien avec les équipes métiers. L'automatisation de la collecte, du traitement et de la consolidation des données nécessaires à la production des indicateurs, à l'aide de scripts développés en Python. La revalidation des formules de calcul des KPI IAM existants, leur fiabilisation, puis leur intégration dans le dashboard global de suivi. L'enrichissement et la maintenance des dashboards réalisés sous Power BI, avec une attention particulière portée à la cohérence visuelle, la pertinence des filtres de suivi et la publication automatisée des rapports. L'extension des mesures de contrôle liées à la production des dashboards, incluant la mise en place d'une couche additionnelle de reporting et l'envoi automatique d'alertes par e-mail en cas de détection d'anomalie ou de mauvaise qualité de données.
Offre d'emploi
Data scientist
Publiée le
Python
40k-60k €
Paris, France
Télétravail partiel
Ce rôle de Data Scientist est une nouvelle création de poste, avec un démarrage envisagé en janvier 2026 . Le Data Scientist rejoindra l'équipe pour travailler sur des projets d'analyse de données, d'apprentissage automatique (Machine Learning - ML), de collecte de données et de développement d'applications/solutions. Les principales responsabilités incluent : L'analyse approfondie de la donnée. La récolte et le traitement des jeux de données. Le développement et l'implémentation de modèles de Machine Learning. Le déploiement des solutions développées.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Témoignage - recherche appartement en location : abusé ! :)
- ESN qui cherche à trop marger
- Cumul sasu + micro entreprise
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- Utiliser Qonto pour créer la microentreprise
2347 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois