L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 784 résultats.
Mission freelance
Head of Data
Publiée le
Gouvernance
Management
Pilotage
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Un groupe du retail spécialisé dans la distribution omnicanale accélère sa transformation digitale. Dans un contexte de croissance et d’harmonisation des systèmes, le Data Office souhaite structurer sa gouvernance, renforcer la qualité des données et professionnaliser l’ensemble de la chaîne analytique. Dans ce cadre, le groupe recherche un Head of Data expérimenté pour accompagner la montée en maturité et piloter la stratégie data globale. Responsabilités principales • Élaborer et piloter la stratégie data à l’échelle du groupe. • Superviser les équipes Data Engineering, Data Analytics et Data Governance. • Définir la roadmap Data et arbitrer les priorités techniques et métier. • Encadrer la mise en place ou l’évolution de la plateforme data (cloud). • Structurer la gouvernance : qualité, catalogage, MDM, sécurité. • Acculturer les directions métier (Marketing, Supply, E-commerce, Finance) aux usages data et IA. • Piloter les budgets data, suivre les KPI de performance et garantir la cohérence des initiatives. • Interagir avec les comités de direction et assurer un reporting stratégique. Compétences et profil recherché • +10 ans d’expérience dans la data, dont plusieurs années en management d’équipes. • Expérience confirmée en environnements retail ou B2C à forte volumétrie. • Vision globale data : architecture, gouvernance, analytics, IA. • Maîtrise d’un environnement cloud moderne (Azure, AWS ou GCP). • Solides compétences en pilotage transverse, communication et conduite du changement. • Capacité à structurer un Data Office et à faire monter en maturité des équipes pluridisciplinaires. • Leadership, esprit analytique et forte orientation business. Environnement de travail • Groupe international du retail en pleine transformation digitale. • Collaboration directe avec la DSI, la direction e-commerce et les équipes omnicanales. • Contexte hybride : 2 à 3 jours sur site selon les phases du projet. • Mission longue (6 à 12 mois renouvelables).
Mission freelance
IT Quant Senior – Projet de Transformation Risque
Publiée le
Finance
12 mois
400-900 €
Paris, France
Consultant IT Quant Senior / Expert – Projet de Transformation Risque Contexte Nous recherchons un consultant IT Quant Senior / Expert pour le compte d’un de nos clients banque dans le cadre d’un projet de refonte et migration d’outils de calcul des modèles de risque . La mission s’inscrit dans un programme de transformation porté par la direction Risque, visant à migrer et fiabiliser plusieurs modules de calcul (stress testing, projections, simulations) vers un nouvel environnement Python , dans un contexte réglementaire IFRS 9 . Rôles et responsabilités Pilotage global du projet et des phases de cadrage Définition des orientations méthodologiques et techniques Contribution à la structuration des modèles et des outils cibles Optimisation des performances de calcul et de l’usage de la data Suivi de l’avancement et sécurisation des livrables Compétences requises Solide expérience en projets risques et/ou réglementaires (IFRS 9) Expertise en modélisation quantitative et validation de modèles Très bonne maîtrise de Python appliqué aux calculs financiers Connaissances en stress testing, simulations, backtesting, VaR Capacité à structurer et piloter des projets complexes Détails Durée : mission longue (12 mois) Démarrage : dès janvier Lieu : France Statut : consultant indépendant / freelance TJM : selon profil
Mission freelance
Data Architecte (Secteur Energie / Industrie)
Publiée le
Apache Airflow
Apache Spark
Architecture
12 mois
690-780 €
Rennes, Bretagne
Télétravail partiel
Contexte & Enjeux Projet stratégique à haute visibilité visant à construire une nouvelle Data Platform . L’infrastructure, livrée sur un modèle Kubernetes , constitue le socle du futur environnement Data. Une équipe backend est déjà en place et développe le socle applicatif en Python / Django . Objectif principal : Structurer et définir l’ architecture Data de la plateforme, dans une logique modulaire, scalable et sécurisée , et préparer l’intégration des premiers cas d’usage métiers. 🧩 Mission Le Data Architecte interviendra sur : Définir l’ architecture cible de la Data Platform après livraison de l’infrastructure ; Segmentation et ségrégation des stockages selon les typologies de données (temps réel, analytics, applicatif) ; Déploiement et orchestration des conteneurs dans l’environnement Kubernetes ; Mise en place du socle Data et des patterns de gouvernance : sécurité, qualité, monitoring, CI/CD Data ; Accompagnement sur les choix technologiques (préférence open source) ; Co-construction avec les équipes métiers utilisant des outils no-code / low-code pour leurs besoins analytiques. 🧠 Profil recherché Architecte Data confirmé, à l’aise sur les environnements Cloud Azure et Kubernetes ; Maîtrise des architectures temps réel , data pipelines et data storage (Data Lake / Data Warehouse) ; Expérience solide sur les environnements open source : Spark, Kafka, Airflow, etc. ; Capacité à intervenir sur des sujets d’ architecture globale (data + applicatif) ; Bon sens du travail en équipe et de la co-construction dans un contexte sensible et confidentiel ; Capacité à proposer des solutions adaptées aux contraintes existantes. ⚙️ Environnement technique (indicatif) Cloud : Azure Orchestration : Kubernetes Backend : Python / Django Data : Open source – Spark, Kafka, Airflow, etc. Usages métiers : No-code / Low-code
Mission freelance
Data engineer senior H/F
Publiée le
Google Cloud Platform (GCP)
HFSQL
Python
2 ans
400-450 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer senior H/F à Lille, France. Contexte : Les missions attendues par le Data engineer senior H/F : Au sein de l'équipe Data Ingénieur, vous serez responsable de la conception, du développement et de la maintenance des infrastructures et pipelines de données permettant de collecter, transformer, stocker et mettre à disposition des données fiables et optimisées pour les besoins analytiques et opérationnels. Concevoir et développer des pipelines ETL/ELT pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Compétences techniques : Maîtrise des langages de programmation (Python, SQL). Expérience avec des systèmes de bases de données (relationnelles et NoSQL). Connaissance des plateformes Cloud (GCP, Snowflake). Expérience ETL (Une connaissance de semarchy est un plus) Familiarité avec les outils de workflow (Airflow, PubSub). Bonne compréhension des architectures orientées données (Data Lake, Data Warehouse, Golden).
Offre d'emploi
Data Analyste (24)
Publiée le
Piano Analytics
PowerBI
1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Contexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction du Numérique a en effet de forts enjeux de développement des usages numériques de contenus propres ou issus des chaînes d'une grande entreprise de médias. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils d'aide à la décision et des outils de pilotage. La Direction Data recherche une prestation en Data Analyse pour accompagner la direction de la croissance des offres (CRM, Acquisition, Social, Partenariat – Chaîne et FAI). Prestations attendues La prestation consistera à participer à : La création de nouveaux rapports automatiques Power BI qui auront pour objectif de mesurer la performance des sites/applications (prise en compte des besoins des équipes internes, détermination des sources à utiliser et création du cahier des charges pour les data ingénieurs, réalisation d'une maquette, création du dashboard, itérations mode projet). Le maintien du bon fonctionnement des dashboards existants sur Power BI. L'accompagnement et le coaching des équipes internes sur l'intégration de la data dans leur processus de décision et de priorisation (Piano Analytics, Nielsen, marqueur interne). La mesure et l'analyse des données issues de nos différents outils afin de mieux comprendre les usages (web analytics, consommation vidéos vues), en collaboration avec l'équipe études. L'accompagnement des équipes internes dans l'identification des indicateurs/KPIs nécessaires au suivi de leurs activités, et avoir une vision transverse sur l'ensemble des KPIs utilisés par les équipes produit et métier et leurs méthodes de calcul. Le partage de son expertise afin de déployer notre marqueur interne sur d'autres produits. L'identification des besoins de prérequis de tracking pour mettre en place ces analyses et les remonter aux équipes internes.
Offre d'emploi
Platform Engineer Kubernetes – Data & GitOps (Environnement bancaire critique)
Publiée le
API Platform
Kubernetes
1 an
Paris, France
Télétravail partiel
Nous recherchons un Platform Engineer Kubernetes senior , orienté Data , pour concevoir, industrialiser et opérer une plateforme Kubernetes from scratch dans un contexte bancaire critique . Le rôle est plateforme & RUN , avec une approche GitOps stricte : Git est l’unique source de vérité, aucune intervention manuelle en production . Vos missions principales : Conception et déploiement de clusters Kubernetes from scratch (cloud et/ou on-prem) Mise en œuvre et exploitation en GitOps (ArgoCD / FluxCD) Industrialisation de plateformes data sur Kubernetes (batch, ML, analytique) Sécurisation de la plateforme (SSO, gestion des secrets, RBAC, Vault) Mise en place du monitoring, de la résilience et du scaling Exploitation et RUN en environnement bancaire (SLA, ITIL, MCO)
Offre d'emploi
Data Analyst orienté Cybersécurité & Reporting (H/F)
Publiée le
Cybersécurité
Data analysis
IAM
3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Nous recrutons : Data Analyst orienté Cybersécurité & Reporting Nous recherchons un profil DATA et REPORTING spécialisé dans l’univers Cyber et IAM pour renforcer nos équipes. Missions principales : Production, suivi et automatisation des KPI/KRI Cyber & IAM Industrialisation de dashboards (Power BI / SQL / Python) Contrôles de qualité de données et fiabilisation des référentiels Définition des indicateurs et challenge des besoins métiers Collaboration transverse entre les équipes Data, Cyber et Risques Analyse de données : habilitations, logs, référentiels IAM Profil recherché : Un Data Analyst spécialisé en cybersécurité, capable de comprendre les enjeux Cyber & IAM sans être un expert applicatif IAM. Rigueur, sens de l’analyse et capacité à manipuler la donnée à grande échelle sont essentiels.
Mission freelance
Ingénieur Data | BI - Confirmé - freelance - Rouen H/F
Publiée le
Gouvernance
1 mois
76000, Rouen, Normandie
Télétravail partiel
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées. Chez Artemys , on crée un univers où l’humain passe avant tout . Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. Votre mission (si vous l’acceptez) : - Concevoir, développer et maintenir les flux d’alimentation des modèles BI. - Structurer et optimiser les modèles de données pour les besoins de pilotage. - Collaborer avec les équipes BI et les métiers pour garantir la cohérence des données. - Participer à l’industrialisation et à la modernisation de la plateforme data. L’environnement technique : - SQL Server (modélisation, optimisation, ingestion, transformation) - SSIS / ADF ou équivalent pour les pipelines d’intégration - Power BI (compréhension des modèles, optimisation des sources) - Une connaissance de Microsoft Fabric serait un plus apprécié. - Maîtrise des bonnes pratiques de data engineering : qualité, performance, sécurité, gouvernance. Vous, notre perle rare : - Expérience confirmée en data engineering dans un environnement Microsoft. - Capacité à travailler en autonomie tout en collaborant avec les équipes BI et IT. - Rigueur, sens de la qualité, capacité à documenter et à structurer. Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : TJ en fonction de votre expertise et expérience sur un projet similaire. Le poste propose 1 journée de télétravail par semaine (non négociable). Contrat 3 mois renouvelable. Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Offre d'emploi
Data Engineer AWS / Spark / Scala /Python
Publiée le
Apache Spark
PySpark
Scala
1 an
40k-56k €
400-600 €
Paris, France
Télétravail partiel
Bonjour ☺️ Nous recherchons un DATA ENGINEER orienté sur les technologies SPARK / SCALA / PYTHON/ AWS pour le compte de notre client ! Mission : Maintenir la plateforme en conditions opérationnelles : Garantir la disponibilité des données et des services de la plateforme, Assurer la communication avec les utilisateurs de la plateforme, Répondre aux demandes de données (données ad hoc, analyses d’anomalies), Développer les correctifs et évolutions nécessaires, Contribuer à la qualité des données et à l’industrialisation de leur exploitation. Concevoir et développer des services et pipelines de données fiables et performants : Mettre en place des flux de données (acquisition, transformation, export), Concevoir et modéliser les données, Développer et optimiser les pipelines de transformation, Réaliser les tests unitaires et d’intégration, Garantir la qualité des développements via les revues de code, Ordonnancer et gérer les dépendances entre traitements, Déployer sur l’ensemble des environnements, Enrichir et maintenir la documentation de la plateforme. Profil recherché : Minimum 5 ans d'expériences dans un contexte de grande volumétrie de données, Capacité à collaborer avec une pluralité d'interlocuteurs en même temps, Excellent esprit d’équipe, Capacité d'adaptation, Maitrise impérative de : Spark Scala, Python et SQL, Expérience significative sur AWS. Apprécié : Connaissance de Dataiku, Méthodologie Scrum/Safe, Airflow N'hésitez pas à envoyer votre CV !
Mission freelance
Data Engineer AWS - PySpark/Databricks
Publiée le
Amazon S3
Apache Spark
AWS Cloud
12 mois
550-600 €
Paris, France
Télétravail partiel
Contexte : Nous recherchons un Data Engineer pour participer à une mission sur un environnement cloud AWS. Le candidat évoluera au sein d’une équipe digitale internationale et contribuera à la conception, au développement et à la mise en production de solutions data à grande échelle. Profil recherché : Expérience confirmée en tant que Data Engineer ou rôle équivalent. Capacité à collecter les besoins métiers et utilisateurs et à les traduire en architecture de données. Expérience dans la conception et le développement de pipelines de données robustes et évolutifs. Autonomie et rigueur dans la mise en production et la maintenance d’architectures data. Bonnes capacités de communication et aptitude à travailler en équipe multidisciplinaire. Compétences techniques requises : Python – maîtrise avancée (4/4) PySpark – maîtrise avancée (4/4) Databricks – niveau confirmé (3/4) AWS – niveau confirmé (3/4) Anglais – professionnel (3/4) Conditions de travail : Télétravail : 2 jours par semaine Présence obligatoire sur site : 3 jours par semaine Lieu : Paris Début de mission : 08/12/2025 Processus de sélection : Codingame à compléter dans les 48h après réception. Proctoring appliqué pour le codingame. Soutenances techniques prévues après le codingame.
Offre d'emploi
Développeur QlikSense / Data analyst
Publiée le
Qlik Sense
1 an
40k-45k €
320-560 €
Paris, France
Télétravail partiel
Descriptif du poste La mission se déroulera au sein de l'équipe Analytics End to End de la Direction Data d'une institution financière. Cette équipe a pour responsabilité de construire et maintenir des outils de pilotage à disposition des équipes métiers. Nous accompagnons également l'ensemble des équipes analytics dans leurs pratiques data et BI sur les plateformes data mis à dispositions par l'équipes Analytics Platforms avec laquelle nous travaillons en étroite collaboration. La mission nécessite des compétences fonctionnelles et techniques avancées sur QlikSense pour développer pour le métier des dashboards mais aussi pour gérer les montées de version QlikSense et accompagner l'équipe Analytics Platforms.
Offre d'emploi
Expert·e/ Architecte Backup
Publiée le
50k-70k €
Paris, France
Télétravail partiel
Pour le compte de l'un de nos clients grands comptes, vous serez rattaché·e à la direction de BSCI : Vos missions principales seront : - Support & Gestion des backups - Support & Gestion du SAN - Administration / supervision / optimisation / reporting - Validation des paliers techniques et des processus opérationnels - Relation et communication avec les métiers, élaboration et propositions d'architectures - Audit et conseils - Gestion des projets Vos environnements technique seront : - Tous les environnements de sauvegarde recherchés : CommVault, TSM (Spectrum Protect), Netbackup, Networker, Veeam, Rubrik... - DatdaDomain, VTL, Stockage S3 - OS : AIX, Linux, Solaris, Windows - Virtualisation Système : VMWare, Nutanix, HyperV
Mission freelance
Développeur Data / Big Data – ClickHouse – Finance de Marché
Publiée le
Apache Spark
Hadoop
Jenkins
3 ans
Île-de-France, France
Télétravail partiel
Contexte de la mission : Au sein d’une Direction des Systèmes d’Information d’un grand groupe international, vous intégrerez une équipe en charge du pilotage de la liquidité et de la gestion du collatéral . Cette direction mène plusieurs projets stratégiques liés à la conformité réglementaire (Bâle III, FSB, IRRBB) et au pilotage interne des risques structurels . Le bénéficiaire recherche un profil disposant d’une forte expertise technique pour accompagner l’évolution d’un socle applicatif basé sur la technologie ClickHouse® et contribuer à la restitution des données de risques structurels au niveau groupe. Missions principales : Traduire les besoins métiers en solutions techniques robustes et performantes Assurer le développement, la documentation, les tests et le déploiement du code Appliquer les bonnes pratiques internes : code review, pair programming, procédures de test et de déploiement Respecter les jalons projet et les budgets définis Contribuer à l’ industrialisation et l’optimisation des outils existants Participer aux activités de run et de build , avec possibilité d’astreintes Fournir un support technique aux équipes métier et aux utilisateurs finaux Livrables attendus : Analyse du besoin et étude d’impact technique Estimation des charges et planification des travaux Conception, développement et documentation du code Évolution, optimisation et automatisation du code existant Code reviews et tests unitaires, d’intégration et de non-régression Déploiement sur les environnements de test et de production Démonstration des livrables aux utilisateurs et support aux phases de validation (UAT) Suivi et surveillance des traitements de production
Offre d'emploi
DATA SCIENTIST GCP (500€ MAX)
Publiée le
Google Cloud Platform (GCP)
3 mois
47k-97k €
330-500 €
Paris, France
Télétravail partiel
La prestation consistera à : - Exploiter le socle de data pour mettre en place le pilotage des actions, en construisant des dashboards (Power BI) pour le suivi des profils, le suivi de l’engagement, le suivi des segments RF, le suivi des objectifs - Analyser les profils et comportements des utilisateurs, en mettant en place les analyses des profils de vidéonautes, décortiquant les comportements selon les canaux d’acquisition, les contenus consommés, en analysant l’impact de la pression pub sur nos utilisateurs, … - Mettre en place la data science et l’IA au service de l’amélioration de l’expérience utilisateur et l’amélioration de nos process internes - Prédiction des audiences - Enrichissement du catalogue via l’IAG - Prédiction de l’inactivité, des appétences, … - Segmentations - Expériences en analyses de connaissance clients / utilisateurs du type cycle de vie client, churn, recrutés… - Expériences en data science sur des sujets de type prévision, algo de reco, score d’appétence, anti churn… - Expériences sur des sujets d’ IA Générative - Maitrise SQL indispensable, solides connaissances en Python et/ou Spark - Expériences sur un environnement Google Cloud Platform / Big Query - Bonne connaissance des données et des outils dans un écosystème digital (de type Piano Analytics, Google Analytics..) - Capacité à synthétiser et à restituer des résultats à des interlocuteurs ayant des niveaux de maturité data différent - Capacité à mener plusieurs sujets en même temps - Curiosité, dynamisme, enthousiasme, esprit d’équipe, rigueur et autonomie
Offre d'emploi
Pixie – Mission Freelance Data Analyst / Business Analyst E‑Commerce – Lille – Portage possible
Publiée le
BigQuery
Microsoft Power BI
SQL
3 ans
Nord, France
Télétravail partiel
Bonjour Pour un de mes clients, je recherche un(e) : Data Analyst / Business Analyst E-Commerce Rattaché(e) à l’équipe métier Pro Analyse du business des clients professionnels Réalisation d’analyses ad hoc et de dashboards pour accompagner les équipes métier Mission Couvrir tout le cycle data Requêtes SQL Analyse des données Création de KPIs Construction et mise à jour de dashboards Power BI Restitution claire des résultats avec une dimension data storytelling Échanges réguliers avec les équipes métier Pro et la direction Data Tâches principales Suivi des mises à jour des dashboards Analyses de performance des opérations commerciales Analyses de performance des conseillers de vente Pro Analyses de performance de l’offre Outils Power BI SQL GCP BigQuery Environnement marketing Python apprécié Git/Github niveau basique Profil recherché Minimum 5 ans d’expérience Capacité à challenger des équipes métier expérimentées Français courant Infos mission Début janvier Durée longue 3 ans Localisation Lille 3 jours sur site Résumé du profil idéal Data Analyst confirmé orienté business Pro À l’aise avec Power BI, SQL et BigQuery Capable de dialoguer avec le métier et de faire parler la donnée Si ce poste vous intéresse et que votre profil correspond, merci d’envoyer votre CV à jour. Je reviendrai vers vous rapidement pour échanger
Offre d'emploi
DATA SCIENTIST SENIOR – BRUXELLES
Publiée le
Data science
Python
3 ans
Bruxelles, Bruxelles-Capitale, Belgique
Pour une mission longue sur Bruxelles (3 jours site ) , nous recherchons un data scientist expérimenté (minimum 3 ans d’expérience) ayant OBLIGATOIREMENT une expérience dans le secteur bancaire. · Poste en CDI (idéalement pour une relocalisation en Belgique), ouvert aux Freelances, · Anglais obligatoire · Salaire ou tarif à discuter En tant que Data Scientist, vous devez maîtriser différents aspects du Machine Learning. Ce poste offre l’opportunité d’appliquer et de renforcer tes compétences dans plusieurs domaines : • Relever divers défis métiers en créant des applications d’IA (assistant virtuel, etc.) destinées à améliorer l’expérience client, fournir de meilleurs outils aux collaborateurs, et automatiser ou optimiser les processus internes. • Utiliser un large éventail de méthodologies analytiques (IA générative et IA prédictive), incluant les techniques et approches de GenAI : Prompt Engineering, RAG, fine-tuning, speech-to-text, applications agentiques, génération et interprétation d’images, NLP, ainsi que les méthodes statistiques et de machine learning classiques. Bien que vous ne soyez pas expert dans tous ces domaines, vous devez posséder une solide expertise dans les technologies clés et la capacité d’apprendre rapidement de nouvelles approches selon les besoins. • Disposer d’une grande expérience en programmation Python et contribuer au déploiement d’applications d’IA en production en utilisant une pile technologique complète. • Présenter directement les résultats de tes travaux au top management. • Accéder à l’un des volumes de données les plus riches et variés du marché et y appliquer tes compétences. • Évoluer dans un environnement qui valorise l’innovation, les processus agiles et efficaces, la communication directe, et un esprit d’équipe fort. • Travailler au sein d’une équipe agile et collaborative, composée de collègues prêts à partager leurs expériences et à coopérer au quotidien.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
- micro entreprise avant validation ARE
2784 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois