L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 844 résultats.
Offre d'emploi
Data Analyst - Qlik Sense - Rennes
Publiée le
Data visualisation
Qlik Sense
Qlikview
3 mois
40k-45k €
400-450 €
Rennes, Bretagne
Télétravail partiel
Nous recherchons pour le compte de notre client grand compte national un(e) consultant développeur décisionnel . Ses Principales missions : Accompagnement des métiers dans l’expression des besoins et dans les recettes Modélisation décisionnelle Conception, réalisation et maintenance de tableaux de bord ou applications décisionnelles sous QlikView et/ou QlikSense Argain Consulting Innovation est une marque forte spécialisée en performance des projets, des organisations et valorisation de la donnée au sein de l'écosystème Alan Allman Associates implantée à Paris, Nantes, Lyon, Niort. Nous mettons un point d'honneur à maintenir le lien avec chacun de nos talents et mettons tout en œuvre pour développer et entretenir un fort sentiment d'appartenance. Nous rejoindre, c’est intégrer une équipe à taille humaine dont l’humain est l’épicentre, un cabinet où autonomie, confiance et partage sont des principes forts.
Offre d'emploi
Data Analyst Piano Analytics & AB Testing
Publiée le
Microsoft Power BI
Power Automate
Web analytics
2 ans
40k-71k €
400-620 €
Paris, France
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Analyst Power BI & Piano Analytics : Activités principales : Coaching des équipes Produit et accompagnement à la lecture des KPIs Analyses d’impact via Piano Analytics, eStat Streaming, Nielsen Construction et suivi des plans de tracking Harmonisation et mise en cohérence des indicateurs Conception et maintenance de dashboards Power BI Création de nouveaux rapports (recueil du besoin, sourcing, itérations) Si vous êtes actuellement à l'écoute du marché, n'hésitez pas à m'envoyer votre candidature. Bien à vous, Nadia
Mission freelance
Data Engineer Expérimenté
Publiée le
PostgreSQL
SQL
12 mois
400-450 €
Paris, France
Télétravail partiel
Métier : Data Management Fonction : Data Engineer Spécialités technologiques : ETL Gouvernance des données Intégration de données Type de facturation : Assistance Technique (Facturation avec un taux journalier) Compétences : Technologies et Outils : PostgreSQL, CI/CD, SQL, CloudBees, Power BI, Semarchy xDI Soft skills : Force de proposition, Autonomie Secteur d'activités : Assurance Description de la prestation : Le client mène une transformation profonde et la modernisation de son Système d’Information, avec un rôle central des équipes Data intégrées à la DSI. La mission consiste à intervenir sur : Conception et développement d’outils et processus de gouvernance des données Mise en place d’outils pour piloter la qualité, sécurité et traçabilité des données Développement de solutions pour l’amélioration continue de la qualité de service Suivi de la production en tant que lead de l’équipe Data sur les projets de run Analyse des incidents de production et tickets utilisateur de niveau 1 Développement et maintenance des traitements ETL Batch Data via Semarchy xDI Rédaction et publication de rapports et indicateurs sur la qualité de service Missions principales : Développer des traitements de contrôle de la qualité des données, industrialisés Assurer le suivi de production et l’analyse des incidents de premier niveau Traiter et résoudre les incidents liés à la qualité des données en analysant causes et en sollicitant les interlocuteurs appropriés Participer à l’amélioration continue et renforcer la qualité de service en collaboration avec les équipes de Gouvernance des Données
Mission freelance
Senior Data engineer
Publiée le
Snowflake
1 mois
450-580 €
Paris, France
Télétravail partiel
Métier : Data Management Fonction : Software engineer Type de facturation : Assistance Technique (facturation avec un taux journalier) Technologies et outils : AWSSparkSnowflakeAirflow Secteurs d'activités : Services Informatiques, Conseil en organisation et stratégie Description et livrables de la prestation : Rattaché au Responsable Data Platform, missions principales : Développer des pipelines ETL sur AWS vers Snowflake Mettre en place du stockage optimisé avec des technologies lakehouse, notamment DeltaLake Créer des jobs manipulant la donnée avec SQL et Python (pandas, Polars) Traiter de gros volumes de données avec PySpark Développer et maintenir des infrastructures avec de l’IaC, principalement avec Terraform Orchestrer les traitements via Airflow Déployer et maintenir des applications en CI/CD Participer à la conception d’architecture et aux réflexions techniques Avoir une bonne capacité de vulgarisation et de communication Participer aux rituels agiles et contribuer à la documentation technique et fonctionnelle Expérience requise : 5 à 10 ans en tant que Data Engineer, avec expérience significative sur AWS. Plus : Un positionnement en tant que techlead, expérience dans un contexte BI, ou en DevOps serait un avantage.
Offre d'emploi
Tech Lead Data
Publiée le
Méthode Agile
1 an
40k-56k €
400-550 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Nous recherchons un expert Data IT pour accompagner la migration des projets vers le Cloud interne et soutenir les équipes de développement dans l’adoption des bonnes pratiques de développement , en intégrant les enjeux de sécurité et de gouvernance des données . Il contribuera à la mise en place d’automatisation et d’industrialisation selon les principes DevSecOps , participera aux chantiers d’amélioration continue et au monitoring transverse, tout en intervenant dans les premières implémentations de solutions Gen AI appliquées à la donnée . Acteur clé de la stratégie Data France , il apportera conseil et expertise auprès des squads, animera des sessions de formation et mènera des études d’optimisation des services de l'équipe Data . Une veille technologique active et la maîtrise de l’environnement Big Data Hadoop ainsi que du développement SPARK SCALA sont indispensables pour ce poste.
Offre d'emploi
Data Analyst / Analytics Engineer (Futur Lead Data)
Publiée le
Data analysis
Data Lake
Microsoft Power BI
45k-60k €
Paris, France
Télétravail partiel
Sublimez l’usage de la donnée au sein de la plateforme Sincro Solutions Sincro Solutions est un éditeur de logiciels SaaS qui propose un écosystème interconnecté couvrant l’ensemble des besoins des acteurs de la prestation intellectuelle. Nos solutions VMS , ERP et SRM accompagnent la gestion des talents de bout en bout : de l’analyse de CV à la facturation, en passant par la comptabilité d’entreprise et la gestion de projet. Rejoindre Sincro Solutions , c’est participer à un projet unique, intégré et 100 % agile , dans un contexte de forte croissance. Vous évoluerez dans un environnement stimulant, qui réunit les technologies, langages, infrastructures, outils et méthodes les plus performants du marché . Missions principales Rôle et positionnement En tant que Data Analyst / Analytics Engineer , vous rejoignez le pôle Produit et intégrez l’équipe technique en charge de la construction de nouvelles fonctionnalités et de l’optimisation des performances des outils mis à disposition de nos clients internes et externes. Rattaché·e à l’ Engineering Manager , vous interviendrez principalement sur le Cloud Microsoft Azure . Ce poste représente une opportunité unique de créer la fonction Data chez Sincro Solutions et d’en devenir, à terme, le Lead Data . Analytics Engineering En tant qu’Analytics Engineer, vous jouerez un rôle clé dans le développement et la gestion du Data Lake / Data Warehouse utilisé par nos produits et nos clients. Vos responsabilités incluent notamment : Assurer la qualité des données : garantir des données propres, sécurisées et anonymisées dès leur entrée dans le système, en collaboration avec les équipes Data Engineers, ML Ops et Développement. Développer et maintenir des pipelines de transformation : concevoir et maintenir des flux de données en SQL et Python , sur BigQuery ou équivalents. Vous transformerez les données générées par nos clients et les enrichirez avec des sources tierces. Améliorer et documenter les flux de données : faire évoluer les pipelines selon les besoins métiers et techniques, tout en assurant une documentation claire et à jour sur la traçabilité des données. Data Analysis Vous soutenez l’équipe Data & Performance dans l’analyse et l’exploitation des données afin de favoriser la prise de décision stratégique et la compréhension des indicateurs clés . Vos missions principales : Création et maintenance de dashboards Power BI Explorer le Sincro Data Warehouse et concevoir des KPIs pertinents . Développer et maintenir des dashboards Power BI à destination des équipes métier et des clients. Conseiller les Product Owners et les utilisateurs sur les meilleures pratiques de data visualisation . Analyse et interprétation des données Produire des reportings et analyses pour soutenir la stratégie d’entreprise. Identifier et comprendre les dynamiques métiers : recrutement, pipeline commercial, sourcing de talents, contractualisation, facturation, comptabilité, etc. Profil recherché Expérience et formation Minimum 4 ans d’expérience en data analyse ou analytics engineering. Formation Bac +5 (école d’ingénieurs, master Big Data, mathématiques/statistiques ou équivalent). Bonne compréhension des enjeux de gestion d’entreprise . Une expérience en DataOps est un réel atout. Qualités personnelles Organisé·e, rigoureux·se, curieux·se et autonome. Excellente communication écrite et orale, esprit d’équipe et aisance relationnelle. Bon niveau d’anglais (oral et écrit). Goût pour l’apprentissage et l’autoformation, notamment sur des aspects techniques. Compétences techniques Domaine Compétences attendues BI / Data Visualisation Maîtrise indispensable de Power BI SQL Solide expérience en manipulation de données ( BigQuery, MySQL, Fabric , etc.) ETL / Data Transformation Expérience avec Azure Data Factory , dbt , Dataiku ou équivalents Comptabilité & Finance d’entreprise Connaissances en analyse de données dans ces domaines appréciées Langages Bonne maîtrise de SQL , notions de Python appréciées Machine Learning Connaissances de base bienvenues Ce que nous vous offrons Une place centrale dans la construction de la culture Data chez Sincro Solutions. Un projet stimulant , à fort impact, dans un environnement technique exigeant et bienveillant. Une autonomie réelle dans l’organisation de votre travail et vos choix techniques. Des collaborateurs engagés et une équipe attachée à la qualité, à la coopération et à la montée en compétence continue.
Mission freelance
Expert CDP-HDP / Data Platform
Publiée le
Cloudera
Hortonworks Data Platform (HDP)
6 mois
400-600 €
Paris, France
Contexte de la mission: Dans le cadre d’un programme de modernisation et d’optimisation d’une plateforme Big Data au sein d’un grand groupe du secteur bancaire international, nous recherchons un Expert CDP (Cloudera Data Platform) disposant d’une solide expérience sur HDP (Hortonworks Data Platform). Le consultant interviendra sur la gestion et l’amélioration continue des environnements Big Data, l’automatisation des processus via Ansible, ainsi que la coordination d’équipes techniques multi-pays. Responsabilités principales: Assurer l’amélioration continue des services sur CDP (optimisation, tuning, configuration). Gérer et résoudre les incidents de production sur les environnements HDP et CDP. Développer et maintenir les playbooks Ansible pour le déploiement et l’exploitation des clusters. Contribuer à la standardisation et à l’automatisation des processus d’exploitation. Participer à la documentation technique et à la montée en compétence des équipes locales et offshore. Compétences techniques recherchées: CDP / HDP : expertise sur la gestion des clusters, sécurité, monitoring, optimisation. Ansible / Ansible Tower : automatisation du déploiement et des opérations. CI/CD : intégration et déploiement continus dans des environnements complexes. Linux : très bonne maîtrise des environnements et scripts système. Elastic Stack et Dynatrace : supervision et suivi de la performance. LDAP / Kerberos : gestion des identités et des accès sécurisés. Expérience internationale appréciée (collaboration France / Inde). Anglais professionnel requis. Livrables attendus: Documentation technique actualisée des environnements Big Data. Playbooks Ansible fonctionnels et industrialisés. Rapports d’optimisation et recommandations d’évolution.
Offre d'emploi
Business Analyst Data & Géodonnées H/F
Publiée le
API
Data analysis
1 an
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
La mission s’inscrit dans le cadre de la construction d’un GeoDataHub , une plateforme visant à collecter, centraliser et diffuser des données géographiques externes (open data ou données payantes). L’objectif est de rendre ces données accessibles aux différentes équipes métiers (climat, BtoB, digital, data, etc.) afin de : Modéliser les risques climatiques Optimiser les leviers de tarification et de souscription Développer des dispositifs de prévention et d’alerte Appuyer la gestion de crise en cas d’événements climatiques majeurs Objectifs du GeoDataHub Le projet vise à construire et enrichir plusieurs référentiels géographiques : Connaissance du territoire Climat / météo Caractérisation des bâtiments d’une adresse donnée (MVP prévu pour T4 2025) Caractérisation de l’aléa climatique (scores géoclimatiques – planifié pour 2026) Missions principales S’approprier les parcours métiers et décrire les parcours utilisateurs en lien avec les équipes métier et design. Assurer le lien entre les acteurs métier et techniques (développeurs, testeurs, data engineers). Analyser les anomalies et identifier les causes (outils, parcours, données). Évaluer l’impact métier des solutions livrées (durée de traitement, performance, usage). Concevoir des solutions fonctionnelles cohérentes et alignées sur les besoins exprimés. Rédiger les expressions de besoin et challenger les demandes métiers. Rédiger et découper les User Stories (HU), définir les critères d’acceptation et les spécifications fonctionnelles détaillées (SFD IHM / SFD API). Contribuer à la priorisation du backlog et signaler les alertes ou points de blocage. Livrables attendus Expression de besoin (sous forme d’User Stories) Spécifications fonctionnelles (API, ingestion de données, solutions) Études d’impacts Spécifications de tests & PV de validation Compte-rendus d’activités hebdomadaires Documentation technique en Markdown Compétences techniques et fonctionnelles Rédaction de spécifications d’API et de flux d’ingestion de données Analyse d’anomalies et recettes fonctionnelles Maîtrise des outils : GDR, GAP, VSI Automatisation de tests API Support aux développeurs Bonne compréhension des processus de tarification/souscription (produits IARD ou habitation) Intérêt pour la donnée géographique et climatique Environnement et collaboration Mission réalisée en interaction avec : Les équipes métiers (tarification, souscription, prévention), Les équipes techniques (développement, data, API), Des experts climat et data (modélisation, visualisation).
Offre d'emploi
Data Analyst confirmé
Publiée le
Databricks
Microsoft Power BI
Python
12 mois
40k-68k €
360-480 €
Bondoufle, Île-de-France
Télétravail partiel
Bonjour, Nous recherchons pour notre client basé en région parisienne un Data Analyst – confirmé (4 - 10 ans d’expérience) Objectif : Accompagner l’entité Juridique du Groupe sur les sujets énergies Les livrables sont Analyser des incidents pour en comprendre la cause afin de déterminer la solution à appliquer Avoir une bonne capacité d'analyse afin de pouvoir comprendre des sujets métiers divers et variés Compétences techniques PYTHON - Confirmé - Impératif POWERBI - Confirmé - Important DATABRICKS - Confirmé - Important SQL - Confirmé – Important Connaissances linguistiques Français Courant (Impératif) Anglais Notions (Secondaire) Définition du profil CONCEPTION ET CADRAGE Définit, développe, met en place et maintient les outils nécessaires à l'analyse des données par les équipes Data Conçoit les modèles de données et les contrats d'interfaces Est responsable de créer des solutions permettant le traitement de volumes importants de données tout en garantissant leur sécurité MISE EN PRODUCTION Prépare les documents requis pour les Mises En Production (MEP) et pour le Run (document d'exploitation, supervision, ?) Participe à la mise en place des processus et outils de supervision de son produit et des traitements associés Participe au transfert de compétences vers l'équipe en charge du RUN Respecte les bonnes pratiques de développement (optimisation, sécurisation, documentation, etc.) Participe aux différentes cérémonies agiles VEILLE ET SUIVI Assure une veille active sur les technologies et langages utilisés et leurs évolutions afin d'améliorer les compétences des équipes Participe à la résolution d'incidents sur le produit en collaboration avec les parties prenantes Données complémentaires Date de démarrage 08/12/2025 Lieu de réalisation Bondoufle Déplacement à prévoir non Le projet nécessite des astreintes non Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Mission freelance
Business Intelligence / Data
Publiée le
Microsoft Power BI
Microsoft SQL Server
Microsoft SSIS
3 mois
100-400 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
En tant que Consultant(e) Business Intelligence, vos principales missions seront : Exploitation des flux de données existants : alimentation des bases, extractions de données Maintenances correctives, évolutives et préventives sur les problématiques liées aux données mises à disposition des métiers ou des partenaires Analyse des besoins métier, appréhension du contexte des maintenances et projets ainsi que veille aux bonnes pratiques de développement Conception et développement de flux de données et/ou restitutions pour les projets à mettre en place Assurer le support de recette et les mises en production dans le respect des normes en vigueur
Mission freelance
Ingénieur Data
Publiée le
AWS Cloud
Big Data
CI/CD
36 mois
500-700 €
Paris, France
Télétravail partiel
Le rôle consiste à développer une plateforme reposant sur des technologies Big Data robustes et évolutives, destinée à gérer un volume important de données sur plusieurs pays. L'objectif est de centraliser divers indicateurs dans un référentiel standardisé accessible de façon transversale. Le développeur s'assure du respect des normes du Groupe relatives à l'architecture et au cadre interne, collabore avec les acteurs du projet pour promouvoir ces normes et propose des fonctionnalités communes pour la plateforme. Interventions principales : ingestion, traitement, normalisation, distribution des données ainsi que l'amélioration du cadre commun (monitoring, CI/CD, tests, performance, résilience, bonnes pratiques de développement et qualité du code).
Offre d'emploi
Data Engineer Senior
Publiée le
Python
SQL
1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Contexte de la mission Au sein de la Direction Data (Direction du Numérique), intégration à l'équipe Bronze (PO, data steward, 2 data engineers) au cœur de la plateforme Data. Stack principale : Python, Spark, SQL (traitements), Airflow (orchestration), Cloud Storage & Delta Lake (stockage), services cloud (BigQuery, Dataproc, Pub/Sub, Cloud Storage), Terraform/Terragrunt (infra). Activités attendues Concevoir et maintenir des pipelines data robustes et scalables ; organiser et structurer le stockage. Mettre en place et maintenir des infrastructures scalables ; assurer sécurité et stabilité des environnements. Construire et maintenir les workflows CI/CD ; accompagner l'équipe sur l'exploitation et requêtage. Gouvernance et conformité (qualité, sécurité, conformité), documentation, veille et participation aux instances Data Ingénieurs.
Offre d'emploi
Architecte Solution - Architecture cloud (AWS, Azure, GCP)
Publiée le
Big Data
Cloud
3 ans
Île-de-France, France
Télétravail partiel
Responsabilités principales Architecture fonctionnelle Collaborer avec les équipes produit pour recueillir et clarifier les besoins métiers. Travailler en équipe avec les architectes d’entreprise et les architectes data pour résoudre des problématiques métier. Analyser les systèmes existants et le code source afin de comprendre les processus actuels. Documenter les besoins fonctionnels et l’architecture dans Confluence. Réaliser une analyse des écarts entre les systèmes existants et les nouveaux besoins métiers. Concevoir des architectures fonctionnelles modulaires, évolutives, ainsi que des stratégies de transition. Définir les points d’intégration pour un fonctionnement en parallèle avec les systèmes existants. Architecture technique Sélectionner les technologies appropriées via des POC (Proof of Concept) et des benchmarks. Concevoir et mettre en œuvre des architectures techniques robustes et évolutives. Garantir la cohérence entre les conceptions fonctionnelles et techniques. Réaliser des revues de code afin de faire respecter les standards architecturaux. Supervision de la mise en œuvre Suivre l’avancement du développement et veiller au respect des lignes directrices architecturales. Accompagner les équipes dans la résolution des défis techniques et l’optimisation des performances. Profils recherchés Expérience requise : 10 ans ou plus dans les domaines suivants Architecture full-stack : infrastructure, données, microservices et front-end. Conception d’API, de plateformes web et d’applications mobiles dans les secteurs du crédit, de l’assurance ou de la conformité. Stratégie, intégration et orchestration des données. Maîtrise des applications supportant le big data, idéalement dans un environnement B2B. Conception et mise en œuvre de moteurs de règles. Migration et modernisation d’infrastructures (on-premise / cloud). Leadership agile et coordination de développements externalisés. Environnement réglementé (services financiers, assurance, etc.). Sécurité, conformité et gestion des incidents.
Mission freelance
Ingénieur Système & Data – Monitoring / Maintenance / Big Data
Publiée le
Angular
Apache Spark
Hadoop
3 ans
Île-de-France, France
Télétravail partiel
Contexte de la mission : Au sein de la Direction des Systèmes d’Information d’un grand groupe du secteur financier, vous intégrerez une équipe en charge du pilotage des risques structurels et du reporting financier . L’objectif de la mission est de maintenir et faire évoluer une plateforme technique basée sur la technologie ClickHouse® , en garantissant sa stabilité, ses performances et sa sécurité . Missions principales : La prestation consiste à contribuer aux activités suivantes : Surveillance et monitoring de l’infrastructure ; diagnostic des incidents et anomalies Maintien en conditions opérationnelles de la plateforme (composants, performances, dette technique, montées de version) Rédaction et exécution de scripts de maintenance de l’infrastructure (équilibrage des disques, tuning système, automatisation) Application des exigences de sécurité et des procédures internes (remédiation des vulnérabilités, patching, CI/CD) Définition, estimation et planification des activités techniques Rédaction de spécifications et documentation techniques Support et accompagnement des équipes internes dans la gestion quotidienne de la plateforme
Mission freelance
Manager Platform Data & Analytics
Publiée le
CoreData
6 mois
500-650 €
Paris, France
Bonjour, Pour le compte de l'un de mes clients dans le secteur du luxe, je suis à la recherche d'un manager Platform Data et Analytics. Cette mission concerne la gestion transitoire d’un poste de manager Platform Data et Analytics chez le client, en attendant le recrutement d’un successeur. Elle inclut la prise en main, le pilotage des missions ainsi que le transfert des responsabilités : · Handover pour prendre la main sur les missions · Pilotage des missions · Handover pour transférer la mission vers le successeur. Les deux missions principales sont : 1. Assistance au pilotage de la Federated Data Platform 2. Pilotage IT du projet SSOT (Single Source of Truth) En tant que Data Product Manager au sein des équipes Corporate IT, votre mission principale est de piloter les évolutions (via les quaterly releases) via la joint design autorithy & d'être en support eux entités. En travaillant & en étant aligné avec les directeurs Data et travaillant de concert avec le data / solution architect et le Cloud Architect la mission couvre : · Définition et pilotage de la roadmap produit : Élaborer et maintenir la feuille de route stratégique de la plateforme et des services data partagés, en tenant compte des besoins métiers, des priorités et des évolutions des éditeurs (par exemple roadmap MS Fabric). · Identification et valorisation des synergies : Collaborer avec les divisions, les régions et les fonctions Corporate pour détecter les opportunités de mutualisation et maximiser la valeur ajoutée des initiatives data à l’échelle mondiale. · Gestion des évolutions et arbitrages : Piloter les demandes d’évolutions de la plateforme avec les divisions et les régions, coordonner les arbitrages et veiller à l’alignement avec la stratégie data globale. · Garant du Delivery et du Run : Superviser le développement et le bon fonctionnement des produits data (Federated Data Platform), suivre les indicateurs de performance (KPI) et assurer un support continu aux utilisateurs. · Gouvernance des services data : Animer la gouvernance data autour de thèmes clés tels que le Federated Data Platform (avec la joint design authority) en impliquant les parties prenantes des divisions et régions. · Support à la réussite des Use Case : S’assurer que la plateforme répond aux besoins des programmes stratégiques (Programme Hero, ORION, ESG, …) et accompagne efficacement la réalisation des use cases data (des divisions, régions, corporate). · Accompagnement au changement et formation : Être le point de contact privilégié pour le déploiement et l’adoption des solutions, organiser la montée en compétence des équipes et recueillir les feedbacks pour améliorer les services. Remarque: le partenaire de la Federated Data Platform est la société ONEPOINT (En France)
Mission freelance
Data Scientist (H/F)
Publiée le
IA
Large Language Model (LLM)
Machine Learning
1 an
380-490 €
Île-de-France, France
Rejoignez TRUST’IT 🚀 Créée en 2016, TRUST’IT compte aujourd’hui plus de 100 collaborateurs et un chiffre d’affaires de plus de 10 M€. Spécialistes de l’infrastructure, de la production et des métiers fonctionnels (Business Analyst, PO, Scrum Master…), nous proposons principalement des missions longues (2 à 3 ans). Notre force : une culture d’entreprise familiale , un turnover quasi nul et un mot d’ordre clair – la confiance . Chez TRUST’IT, nous plaçons l’épanouissement de nos collaborateurs au cœur de notre réussite. Nos avantages ✅ 25 CP + 10 RTT ✅ Mutuelle/prévoyance 100 % gratuite pour vous et votre famille ✅ Navigo intégralement remboursé + panier repas ✅ Prime d’intéressement & de cooptation (1 500 €) ✅ Chèques cadeaux, vacances, culture, rentrée scolaire ✅ Accès gratuit à + de 3 000 infrastructures sport & bien-être TRUST’IT, ce n’est pas une ESN comme les autres… c’est une famille ! Nous recherchons à recruter pour notre client, un Data Scientist (H/F), Missions : Concevoir, entraîner et optimiser des modèles d’intelligence artificielle, notamment des modèles de langage (LLM). Étudier l’intégration de ses fonctionnalités dans le système d’orchestration existant. Étudier la faisabilité pour l’intégrer au Modèle. Collaborer avec les équipes de DEV et du Support Cloud N2 pour intégrer des solutions IA pour leur besoins au quotidien Environnements techniques : Langage Connaissance avancée de python Modélisation IA & LLM Expérience en fine-tuning, prompt engineering, distillation, quantization Connaissance des frameworks : Hugging Face Transformers, LangChain, OpenAI API, etc Data Science & Machine Learning Préparation et nettoyage de données (Pandas, NumPy) Feature engineering, évaluation de modèles, métriques (F1, perplexité, etc.) Maitrise avec scikit-learn, PyTorch, TensorFlow Algorithmique & Mathématiques Solide compréhension des algorithmes d’optimisation, statistiques, calcul matriciel Connaissance des méthodes de réduction de dimension, clustering, etc.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1844 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois