Trouvez votre prochaine mission ou futur job IT.
Mission freelance
Data Analyst expert
Métiers : Data Management, Data Analyst Spécialités technologiques : BI, ETL Type de facturation : Assistance Technique (facturation avec un taux journalier) Compétences : Technologies et Outils : SQL, Qlik Sense, Power BI Soft skills : Autonomie Secteurs d'activités : Administration Publique Description de la prestation : Le Data Analyst sera chargé de structurer les bases méthodologiques et techniques pour produire des indicateurs fiables pour le département « Recherche Candidature et Rapprochement » (RCR). Sa mission inclut : Centraliser les données de multiples sources et assurer leur transformation. Industrialiser leur traitement via des pipelines performants. Visualiser les données avec Power BI, Qlik Sense, etc. Gérer plusieurs domaines de données en lien avec l’architecte/expert data et les métiers. Assumer la chaîne complète de traitement et valorisation des données, de la compréhension des besoins à la mise en production et maintenance des applications décisionnelles. Structurer les flux, optimiser les performances, garantir la qualité, la cohérence et la disponibilité des données. Le poste requiert une forte autonomie et une capacité à travailler en lien étroit avec les équipes data et les métiers pour assurer la qualité des livrables.

Mission freelance
Product Owner Data Quality Cockpit Data like , data visualisation 450 e par j
Product Owner Data Quality Cockpit Data like , data visualisation 450 e par j Vos responsabilités principales : Pilotage de la démarche Qualité Gérer la backlog produit et collaborer avec les équipes techniques Animer les comités de suivi projets avec les filiales et les lignes produits Assurer le suivi projet en respectant les couts et les délais Construire le MVP Data Quality Cockpit Assurer la conception et la mise en place du Data Quality Cockpit : définition des fonctionnalités, interfaces, architecture, tableaux de bords… Être le garant du déploiement des normes et des standards de qualité de donnée du Groupe. Alimenter et maintenir les indicateurs de qualité Structurer les règles de qualité, les seuils, alertes et KPIs à intégrer Alimenter en continu les sources de données du cockpit Veiller à la cohérence, à la fiabilité et à la lisibilité des informations affichées Déployer le cockpit dans les filiales Organiser et accompagner le déploiement progressif du cockpit dans les entités pilotes pour commencer et ensuite Définir les périmètres de données à suivre par filiale Assurer la formation et l’adoption par les utilisateurs métiers Fédérer autour de la culture Data Quality Sensibiliser les équipes à l’importance des données fiables Accompagner les métiers dans la compréhension des indicateurs qualité Participer à la structuration de la gouvernance des données à l’échelle du groupe Profil recherché Formation & Expérience Bac +5 (école d’ingénieur, informatique, data, SI…) Expérience confirmée (5 ans min.) dans la data, idéalement dans des environnements multi-entités ou internationaux Solide expérience en gestion de projet data, gouvernance ou qualité des données Compétences clés Maîtrise de SQL, des systèmes de gestion de données (Data Lake, référentiels…) Connaissance des outils de data visualisation Bonne compréhension des enjeux de qualité, sécurité et conformité des données Capacité à structurer des règles, seuils, KPIs et dictionnaires 450 e par j
Offre d'emploi
Architecte Data H/F
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : 4zx35ctzb4
Offre d'emploi
Data Engineer H/F
Nous recherchons un(e) data engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : ahorcmz9jc
Offre d'emploi
Architecte DATA/IA
En tant qu'Architecte Data & Analytics pour un cabinet du Big Four, votre rôle consistera à développer des solutions robustes et pérennes autour de la transformation numérique et des projets en Intelligence Artificielle en collaboration avec la DSI. Vos principales missions incluent : Architecture Fonctionnelle et Urbanisation du SI : Structurer les architectures data fonctionnelles et techniques selon les besoins métiers. Etudes des besoins métier et chiffrage des solutions : Analyser les demandes en lien avec les équipes métiers et proposer des solutions techniques chiffrées. Architecture Solution : Assurer l'architecture des solutions, de la conception à la mise en production, pour garantir leur intégration fluide dans le SI. Catalogue Technologique : Maintenir et enrichir les stacks techniques et outils utilisés. Vous interviendrez aussi sur : La proposition d’architectures techniques en réponse aux besoins d’analyse et de traitement des données, avec estimation détaillée des coûts. La définition des frameworks, standards, et principes de modélisation des données de référence. L’amélioration continue des solutions en termes de performance, capacité, coût, sécurité. La mise en place de bonnes pratiques de développement et collaboration avec les équipes DSI dans une démarche DevOps. La veille technologique pour optimiser l’efficacité du SI.

Offre d'emploi
TECH LEAD BIG DATA
Bonjour, Pour le compte de notre client nous recherchons un TECH LEAD BIG DATA Le domaine d’intervention du Tech Lead Data Engineering comprend les études, l’architecture du SI Big Data, le choix des solutions et outils, le pilotage technique du Build et du Run. Comme référent technique Big Data, vous assurez le lead technique de l’équipe de développeurs, avec en responsabilité, la conception et la mise en œuvre des solutions Big Data, ainsi que le pilotage technique de projets. Sous la responsabilité du responsable du SI Big Data, vous piloterez techniquement les activités de Data Engineering : - étude et prise en compte des besoins de traitement de la data, - gestion des priorités et de la cohérence des besoins, - choix des outils et solutions - conception et mise en œuvre des architectures de données évolutives et performantes, sécurisées et résilientes - direction et encadrement technique d’une équipe de data ingénieurs composée d’intervenants externes : suivi, support, adoption des bonnes pratiques de développement sécurisé - suivi de la qualité, de la sécurité des données et des traitements, de la performance opérationnelle des traitements - participation et support au delivery nécessitant l’expertise technique et data - veille technologique pour rester à l’état de l’art en matière de traitement massif des données, et d’utilisation de l’IA pour l’automatisation, la prédiction, la génération de data et de code. - support des équipes Data Science et R&D sur le cycle de déploiement/optimisation et industrialisation des solutions d’IA - conception et mise en place d'API pour l'intégration des solutions Big Data avec d'autres systèmes, - développement et intégration de modèles d'IA générative pour des applications spécifiques, - assurer la maintenance et l'évolution des API et des modèles d'IA générative.

Offre d'emploi
Data Analyst (H/F)
À propos de l’entreprise Rejoignez une entreprise en forte croissance, soutenue par un grand groupe industriel, où l’exploitation de la donnée est au cœur de la stratégie. L’équipe Data est directement rattachée à la direction commerciale et constitue un levier majeur de développement . Vous évoluerez dans un environnement multiculturel , innovant, humain et stimulant, avec des perspectives d’évolution concrètes. Votre mission Au sein de l’équipe Customer Success & Data (4 personnes en France et en Angleterre), vous serez l’interlocuteur clé pour transformer les données de nos clients en insights concrets et tableaux de bord impactants . Vos objectifs : Comprendre les besoins clients (équipes techniques et métiers) Construire des dashboards durables, lisibles et robustes Mettre en valeur les KPIs qui génèrent du ROI pour le client Participer aux échanges clients avec l’équipe Customer Success Être force de proposition sur les choix techniques et fonctionnels Vos responsabilités Créer des rapports visuels et dynamiques (Power BI) Préparer et transformer les données semi-brutes Migrer les dashboards de Looker Studio (ex-Google Data Studio) vers Power BI Effectuer des analyses de données ciblées à la demande Participer aux réunions hebdomadaires clients (visio ou sur site) Estimer les charges, rédiger les user stories (via Jira) Effectuer des ajustements ou ajouts de KPIs selon les retours clients Collaborer avec les équipes techniques (R&D, support) Veiller à la qualité et à la lisibilité des livrables data Contribuer aux choix d’outils et de méthodologies data durables
Offre d'emploi
Chef de projet Data
Nous recherchons un Chef de Projet Data Senior Le candidat sera en charge de piloter les projets stratégiques Data de bout en bout, en garantissant la qualité, la cohérence et le respect des délais et budgets. Missions principales : Mettre en place et suivre la démarche de pilotage projet (jalons, livrables, comités de pilotage) Accompagner la transformation agile et proposer des solutions techniques et fonctionnelles adaptées Participer aux phases de cadrage, d’étude et de conception avec les différentes parties prenantes Maintenir les référentiels documentaires et assurer la qualité des livrables, internes ou externes Collaborer étroitement avec les équipes métiers et DSI pour aligner les projets avec les enjeux business
Mission freelance
Data scientist
Responsabilités principales Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Chatbots

Mission freelance
Data Engineer Java/Spark – POC & Industrialisation Data
Nous recherchons un Data Engineer Senior (Java/Spark) pour accompagner un acteur majeur du secteur mutualiste dans la transformation et l’industrialisation de ses environnements data, en lien étroit avec les équipes métiers et techniques. Vous aurez pour mission : Accompagnement technique et fonctionnel : Intervenir en tant qu’expert Data pour soutenir les équipes sur des problématiques de performance, d’optimisation et d’expérimentation de cas d’usage à forte volumétrie. POC et industrialisation : Participer à la conception et à la réalisation d’un POC visant à rapprocher les environnements cloud et on-premise, avec une cible finale on-premise. L’existant cloud servira de base pour des projets d’envergure. Animation et méthodologie : Co-animer le codir mensuel avec la direction métier Data/IA, accompagner la direction dans l’exploration des données et la priorisation du backlog, et apporter une expertise méthodo pour le démarrage des cas d’usage. Collaboration transverse : Travailler en étroite collaboration avec les Tech Leads et référents architecture Data pour garantir la cohérence technique et fonctionnelle des solutions proposées. Développement et optimisation : Apporter un soutien actif au développement Python/Java, résoudre les problématiques de performance et contribuer à l’expérimentation de cas d’usage sur des volumes de données importants.
Mission freelance
Architecte de Solutions en IA Générative
Contrainte forte du projet : Le livrable est une étude comparative des solutions technologiques pour Agents GenAI. Description détaillée : Contexte et objectifs de la mission : Dans le cadre de sa stratégie d’innovation digitale, le client souhaite accélérer le déploiement d’agents d’IA générative pour différents cas d’usage métiers. Afin d’assurer une intégration efficace, pérenne et sécurisée, il est indispensable d’identifier, d’évaluer et de préconiser les technologies socles les plus adaptées au contexte du groupe. Cette mission vise donc à réaliser une étude de choix comparant les différents outils et frameworks disponibles pour : Le développement d’agents IA avancés (framework dédié, SDK, bibliothèques, etc.). La mise à disposition de solutions low-code/no-code pour le prototypage ou le déploiement rapide d’agents simples. L’indexation, la gestion et la sécurisation des données nécessaires au fonctionnement des agents, notamment via des bases vectorielles (vector DB). L’assurance d’un environnement répondant aux exigences de sécurité (sécurité des accès, confidentialité des données, conformité réglementaire), de scalabilité (montée en charge et performance) et d’observabilité (monitoring, traçabilité, gestion des incidents). Périmètre de l’étude : L’étude doit impérativement couvrir les volets suivants : Recensement des besoins métiers et techniques auprès des équipes du client impliquées dans l’IA générative. Cartographie de l’existant et identification des contraintes d’intégration avec le SI du client. Benchmark des frameworks de développement pour agents AI (exemples : Semantic Kernel, LangChain, LlamaIndex, etc.). Comparaison des solutions low-code/no-code pour la création d’agents (exemples : Microsoft Copilot Studio, Pipedream, etc.). Analyse des solutions d’indexation de données textuelles et multimodales (notamment bases vectorielles comme Azure AI Search, Databricks, Pinecone, Weaviate, Qdrant, etc.). Étude des dispositifs existants ou à mettre en place pour la sécurité, la conformité, la scalabilité et l’observabilité des technologies retenues. Préconisations argumentées sur l’architecture cible et le schéma directeur de déploiement. Livrables attendus : Document de synthèse présentant l’état de l’art des solutions évaluées. Analyse comparative (forces/faiblesses, coûts, niveau de maturité, etc.). Proposition d’architecture cible et recommandations d’implémentation. Tableau de sélection des technologies et justification des choix proposés. Schéma de gouvernance technique et principes d’intégration. Critères de réussite : Adéquation des préconisations avec les besoins métiers du client. Respect des exigences de sécurité et de conformité du groupe. Capacité de la solution cible à évoluer et à s’intégrer dans l’écosystème SI du client. Niveau de documentation et de transférabilité des livrables. Ce descriptif de mission constitue le cadre de référence pour l’étude à mener, afin de garantir le choix de technologies innovantes, robustes et alignées avec les ambitions stratégiques du client en matière d’IA générative.

Offre d'emploi
Data Engineer (h/f)
Résumé : Ce poste de Data Engineer a pour but principal d'analyser les besoins métiers afin de créer des indicateurs clés de performance (KPI) et de les visualiser à l'aide de Power BI. Responsabilités : Vous serez chargé de traduire les besoins métiers en solutions techniques et de garantir la qualité des données. Les principales responsabilités comprennent : Traduire les besoins métiers Rédiger les spécifications techniques à partir des besoins d'affaires Récupérer les données via des tickets Transformer les données sur Talend Faciliter et mettre en place les KPI Créer des dashboards complexes et appliquer des filtres sur Power BI Comprendre les cubes Azure Must Haves : Les compétences et qualifications suivantes sont obligatoires : Expérience avec Power BI Compétences en Talend Connaissance des cubes Azure Expérience en rédaction de spécifications techniques Nice to Have : Les compétences complémentaires qui seront un plus : Expérience en data engineering dans le domaine d'activité spécifique Connaissance des méthodologies Agile Compétence en data visualization Autres Détails : * Lieu : 75 * Prestation : temps plein hybride (3 jours sur site, 2 jours télétravail, modulables) * Démarrage : ASAP * Durée : 03 à 36 mois

Offre d'emploi
Concepteur/Développeur Front Confirmé (H/F)
Dans le cadre de l’évolution de notre application métier dédiée à la signature électronique, nous recherchons un développeur PHP confirmé afin de renforcer notre équipe projet. La mission consiste à apporter une expertise technique pour accélérer la phase de développement et assurer la réussite des évolutions prévues. Missions principales : Le développeur interviendra sur la conception, le développement et l’intégration de solutions logicielles, en conformité avec les spécifications fonctionnelles et l’architecture technique définie. Ses responsabilités incluront notamment : Participer à l’analyse détaillée des besoins fonctionnels et techniques, Développer et coder les évolutions de l’application (logiciel, système, interfaces), Rédiger et maintenir la documentation technique associée, Implémenter les solutions avec les technologies retenues, Réaliser les tests et la qualification des systèmes, d’un point de vue fonctionnel et technique, Contribuer à la validation des spécifications fonctionnelles détaillées, Coordonner et accompagner les prestataires impliqués dans le développement. Livrables attendus Évolutions de l’application iAudience, Mise en place d’un nouveau mode d’authentification.

Offre d'emploi
Analyste d'exploitation / Domain Data - MLOps - Data Platform
Analyste d'exploitation / Domain Data - MLOps - Data Platform Un leader dans le domaine des solutions de leasing est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Projet à mener pour une application de ciblage commercial permettant aux commerciaux une approche de vente proactive du crédit-bail pour des clients déjà équipés de contrats cadres. Responsabilités Mise en œuvre des Pipelines Machine Learning : • Concevoir, déployer et maintenir des pipelines de machine learning automatisés, intégrant l'ensemble des étapes du cycle de vie des modèles, de l'entraînement à la mise en production. • Assurer l'intégration des modèles de machine learning dans les environnements de production, en s'assurant de la scalabilité, des performances et de la fiabilité des solutions mises en œuvre. • Collaborer étroitement avec les data scientists et ingénieurs data pour faciliter la transition des modèles depuis les phases d'expérimentation jusqu'à l'industrialisation, tout en optimisant les pipelines de bout en bout. Automatisation et industrialisation des modèles : • Mettre en place des processus d'industrialisation des modèles de machine learning pour garantir une gestion continue et fiable des modèles en production, avec des mécanismes de surveillance automatique. • Automatiser les tâches critiques, telles que l'entraînement, le déploiement, la gestion des versions, et la surveillance des performances des modèles. • Intégrer des solutions de monitoring pour garantir que les modèles en production respectent les critères de performance, de dérive et de précision définis. Adaptation de l'infrastructure et des environnements de production : • Participer à la mise en place d'une infrastructure (Cloud / DMZR) robuste et évolutive qui soutient l'entraînement et l'inférence des modèles à grande échelle. • Optimiser l'utilisation des ressources (GPU, CPU) pour l'entraînement et la mise en production des modèles, en fonction des besoins spécifiques du projet. Surveillance, maintenance et gestion du cycle de vie des modèles : • Mettre en œuvre des systèmes de monitoring pour suivre les performances des modèles en production, détecter les dérives, et initier les actions correctives automatisées. • Assurer une maintenance continue des modèles en production pour garantir leur conformité avec les objectifs métiers, en supervisant la mise à jour des modèles et la gestion de leurs versions. • Gérer le cycle de vie complet des modèles, de la phase d'entraînement initiale à la mise à jour et dépréciation des modèles obsolètes. Collaboration et documentation des processus : • Collaborer étroitement avec les data scientists, les ingénieurs data et les DevOps pour assurer l'intégration fluide des pipelines de machine learning dans l'infrastructure IT existante. • Documenter de manière exhaustive les processus et les pipelines mis en place, incluant les workflows automatisés, les architectures, et les pratiques de surveillance des modèles. • Assurer une communication continue avec les équipes métiers et techniques pour garantir l'alignement sur les besoins et objectifs du programme.
Mission freelance
CP Senior DATA & Agile
Bonjour, Pour le compte de l'un de mes clients dans le secteur de l'agroalimentaire est actuellement à la recherche d’un Chef de Projet Senior DATA & Agile pour reprendre en main plusieurs projets menés avec les équipes internes Data et les métiers. Le contexte : Les projets en cours rencontrent des difficultés dues à une organisation qui freine leur avancement. Un échec a notamment été constaté dans la mise en place de l’agilité, avec une animation insuffisante des équipes Data et des interlocuteurs métiers. L’objectif : Remettre de l’ordre, relancer les projets sur de bonnes bases, et instaurer une dynamique Agile efficace.

Offre d'emploi
Data analyst junior (H/F)
Les + du poste : Vous interviendrez au sein de grande entreprise à dimension internationale Vous intégrerez un groupe leader sur son marché et garant du développement durable Vous rejoindrez une équipe soudée et bienveillante Contexte : Sous la responsabilité du Directeur du pôle Data qui est composé de 4 autres data analysts : Assurer le support des applications Qliksense, Nprinting, Talend Participer à l’intégration de logiciels métier dans les filiales (Fabriq, GED, CRM…) Développer d’autres solutions de dataviz Objectif : Assurer la maintenance et le développement d’applications de business. Responsabilités : Business Intelligence : Assurer la maintenance des applications de la plateforme BI (Qliksense, Nprinting, Qalyptus, Talend…) Développer les mails automatiques NPrinting Connecter des solutions Saas via des API Développer d’autres outils de business intelligence (AWS, Grafana…) Assurer la formation des nouveaux utilisateurs
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Application qui permet d’évaluer n’importe quelle idée de startup
- SASU IR - Prelevement sociaux
- De qui se moque-t-on ?
- Activités de team building pour freelances IT ?
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Vous facturez combien de jour par an en moyenne ?