Trouvez votre prochaine mission ou futur job IT.

Mission freelance
Consultant Data Virtualisation – Expert DENODO (V8 → V9)
Dans le cadre du développement de l’offre de service Data Virtualisation , la mission consiste à : Suivre et intervenir dans la montée de version DENODO V9 (depuis la version actuelle V8) Assurer le suivi et l’administration de l’outil et de l’offre de service ( monitoring, gestion du RUN, habilitations, rôles ) Accompagner les utilisateurs internes et les entités clientes dans l’utilisation et le développement de couches métiers ou de composants DENODO Principaux livrables : Dossier d’architecture DENODO V9 (en lien avec un architecte interne) Documentation de conduite du changement (évolution version V8 → V9) Programme de développements des couches métiers DENODO

Offre d'emploi
Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données

Mission freelance
Business Analyst Data H/F
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Business Analyst Data H/F à Paris, France. Les missions attendues par le Business Analyst Data H/F : En tant que Business Analyst, le consultant aura pour missions: - Participer à la migration des données de l'infocentre vers le datalake - Modéliser les données à ingérer qui seront également utilisées sous forme de dashboard Power Bi - Spécifier les ingestions de données et les besoins en dashboard exprimés par le métier - Tester les ingestions de données et les dashboard - Si vous êtes formé vous pourrez également concevoir et mettre en place des dashboard PowerBi en prenant en compte la user expérience - Suivre la qualité de notre production - Créer et maintenir des relations de confiance avec nos métiers.

Offre d'emploi
Expert Data / DBA Azure H/F
Conception et développement de solutions à haute technicité • Support niveau 3 : BI, DataScience, OpenData, DataHistorian (conseil et validation des solutions des équipes produits, Résolution d'incidents complexes) • Gestion des incidents infra, plateforme, réseau, et applicatifs complexes. Périmètres : AZURE et Snowflake • Support exploitation transverse et Interface avec Service IT Transverse de la DSI (Equipes Infra, Cloud, Sécurité, Architecture, Outillage…) • Interlocuteur technique privilégié avec les supports éditeurs (Microsoft, Snowflake) • Gestion de l'obsolescence des 50 VM (OS, Middleware, applications tierces) • Gestion de l'obsolescence des composants Azure • Gestion du parc de Workstation (Affectation, création, suppression) • Analyse & correction des impacts générés par d'autres services (FARO, Annuaire, CBO, sécu,...) • Mise en place et Monitoring de l'infrastructure • Développement script d’administration • Développement d’alerte de sécurité • Développement solution applicative • Développement solution infrastructure/sécurité (Infra As Code) (Subnet et Security Groupe prédéfinis, Gestion des rôles, des clés de chiffrement, des contrôles automatisés, Audit de sécurité) • Veille aux respects des principes généraux de sécurité et des règles de cybersécurité • Conception et implémentation des modèles de sécurité Azure • Revue des comptes Azure AD • Gestion des réseaux virtuels (Plan d'adressage IP, NSG, table de routage) • Pilotage ouverture de Flux CWAN • Veille au respect de l'état de l'art pour les langages de développement (SQL, C#, Powershell) • Revue et amélioration de code (SQL , C#, Powershell) • Maintenance et développement en amélioration continue du framework d’alimentation et de supervision de la plateforme PDA(.net/Powershell/Javascript) • DBA étude : Code review, audit et validation des PR, optimisation de requête et performance/factorisation, veille au respect des bonne pratique de code, Contrôle et ajustement des performances des bases de données (SQL Serveur, Snowflake, Managed Instance, Azure SQL) • DBA Système : Conception et implémentation des modèles de sécurité des bases de données, gestion de la performance des bases de données, monitoring et résolution d'incidents DEVOPS : • Administration Azure Devops (Gestion des accès, Sécurité, création de repo, affectation de licence) -> Méthode GITflow / GITHubflow • Formation (Rationalisation des usages DevOps de toutes les équipes produits) • Développement de pipeline CI/CD, Artefact, repo et taches Azure Devops Architecture technique et Solution : • Veille solution des principaux providers : Microsoft (Azure et Windows), AWS, Snowflake ->Architecture lambda (Big data), état de l'art • Conception & réalisation architecture applicative dans le respect du cadre • Etude stratégie plateforme, POC (Solution innovante, Big Data, multicloud), conception (HLD/LLD), • Build /RUN : Implémentation des services d'infrastructures et middleware

Mission freelance
Product Owner Data – Projet de Migration BI (H/F)
Nous recherchons un Product Owner Data confirmé pour accompagner notre client dans un projet de migration stratégique de ses environnements BI vers la plateforme GCP . Contexte : Au sein d’une équipe de développement BI, vous interviendrez dans un environnement hybride autour de Microsoft BI (on-premise) et GCP (BigQuery, Dataflow, Airflow, Spark). L’objectif principal est la migration et l’optimisation des reportings et dashboards vers Power BI Online sur la plateforme GCP . Missions principales : Piloter le backlog produit et assurer la priorisation des besoins. Coordonner plusieurs projets en parallèle liés à la migration BI. Collaborer étroitement avec les équipes techniques (MSBI, GCP, Data Engineering). Garantir la bonne compréhension et traduction des besoins métiers. Accompagner la migration et l’industrialisation des reportings sur GCP et Power BI.

Mission freelance
Data Engineer Azure
L’équipe Data est en charge de maintenir les anciens flux de données nécessaires aux différents métiers. Elle est en permanence amené a discuté avec les différents métiers afin de mettre en place de nouveau flux ou apporté des modifications à d’anciens. C’est ensuite à nous de priorisé les sujets qui sont les plus critiques et urgent. Enjeux du projet : Pouvoir fournir des données propres aux différents métier de manière continue et fluide, répondre aux différentes attentes de ceux là. Réussir à mettre en place des pipelines as code. Détails de vos activités : 1. Cadrage en amont de la phase de développement avec les métiers. 2. Mise en place de nouveaux flux de données sous Talend et Azure (Une migration de Talend à Azure est en cours de réalisation) 3. Déploiement as code des pipelines (Cloud, CI/CD) 4. Déploiement de nouvelle base de données as code ou pas. 5. Analyse des couts de mise en place pour les nouvelles demandes Les technos / méthodo / Logiciels Cloud / Data (Talend /GIT/BDD SQL/Azure/Python) Azure Data Factory, Azure Devops Le ROI / Résultats pour le client : Avoir des données accessibles pour le métier répondant à leurs attentes Automatiser le plus possible les différents traitements des métiers.

Mission freelance
Data Scientist Expérimenté (5–7 ans d’expérience) Japonais Mandatory
Contexte Notr client recherche un Data Scientist confirmé pour rejoindre son Tech Accelerator et contribuer à des projets innovants autour de l’IA, du NLP et des solutions GenAI. Missions principales Extraction, traitement et analyse de données complexes. Développement et optimisation de modèles statistiques et algorithmiques. Conception et mise en œuvre de solutions basées sur le Machine Learning et Deep Learning . Participation à l’application, au fine-tuning et au développement de solutions LLM / Gen AI . Communication des résultats et vulgarisation des analyses auprès des équipes métiers. Compétences requises Langues : Japonais courant Anglais niveau B2+ Français : un plus, mais non obligatoire Techniques : Python, SQL, Git Deep Learning & NLP Algorithms Machine Learning & Statistical Modeling Fine-tuning et développement de modèles LLM / Gen AI Profil recherché 5 à 7 ans d’expérience minimum en tant que Data Scientist ou poste équivalent. Solides compétences en modélisation, algorithmes et exploitation de données. Capacité à collaborer avec des équipes internationales et à communiquer efficacement les résultats.

Offre d'emploi
Chef de projet DATA (H/F)
Intégré à une équipe pluridisciplinaire, vos missions seront les suivantes : - Contribuer à la mise en place de solutions DATA et BI chez les clients (du cadrage au déploiement) - Rédaction de cahier des charges et études de faisabilité - Suivi d'avancement du projet, du budget et du planning, - Rédaction ou validation de documents d'analyse fonctionnelle - Formation utilisateurs - Être garant de la qualité des livrables

Mission freelance
Chef de projet
Bonjour à tous, Un client recherche un profil chefferie de projet Data (fonctionnelle : 80% / Technique 20%), qui piloterait son programme de transformation, avec l'équipe projet : Le Programme « Data Foundation » : Refonte de l’architecture Création d’un Data Lake Mise en place de reporting Optimisation de la circulation des flux DataHub : décision de le conserver dans l’architecture. Migration Data Warehouse : passage d’Oracle vers Fabric. Power BI : centralisation des données groupe. Enjeu de Process de Data Gouvernance : Déploiement Informatica : MDM, Data Quality, Data Catalogue (documentation des données), tracking des données / mise en place d’un rôle de Data Gouvernernance . Day-to-day du chef de projet Data recherché : Pilotage de projet et production de livrables Gestion de portefeuille projets ( Portfolio Manager ) Respect des jalons Chefferie de projet et analyse métier (orientation avec les équipes métier / marketing et communication) Aspects logistiques Start Date : fin septembre => Profil recherché : transversal, couvrant l’ensemble du domaine DATA. Durée du projet : 6 à 8 mois (travail en lots). Localisation : Proche de Lyon Télétravail : 2 jours / semaine après 4 mois de période d’essai. présence full time sur site proche de Lyon les premiers mois, puis 2 jours de télétravail Important : il y a des déplacements entre les sites et les différentes filiales (Paris, Grenoble, selon l'avancée des projets) En bref, de belles perspectives projets sont à prévoir dès octobre et sur toute l'année 2026 ! N'hésitez pas à proposer votre CV

Mission freelance
Data Engineer / Développeur API H/F
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer / Développeur API H/F à Paris, France. Les missions attendues par le Data Engineer / Développeur API H/F : L'objectif de la mission est d'assurer le rôle de Data Engineer et de développeur API au sein de la squad, avec les responsabilités suivantes : - Gestion de la production - Gestion de la dette technique - Revue de l'architecture actuelle et proposition d'évolutions - Développements liés aux projets La mission pourra évoluer vers d'autres squads Data en fonction des besoins.

Offre d'emploi
Product Owner Data – Projet de Migration BI (H/F)
Nous recherchons un Product Owner Data confirmé pour accompagner notre client dans un projet de migration stratégique de ses environnements BI vers la plateforme GCP . Contexte : Au sein d’une équipe de développement BI, vous interviendrez dans un environnement hybride autour de Microsoft BI (on-premise) et GCP (BigQuery, Dataflow, Airflow, Spark). L’objectif principal est la migration et l’optimisation des reportings et dashboards vers Power BI Online sur la plateforme GCP . Missions principales : Piloter le backlog produit et assurer la priorisation des besoins. Coordonner plusieurs projets en parallèle liés à la migration BI. Collaborer étroitement avec les équipes techniques (MSBI, GCP, Data Engineering). Garantir la bonne compréhension et traduction des besoins métiers. Accompagner la migration et l’industrialisation des reportings sur GCP et Power BI.

Mission freelance
Data Engineer AWS
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'Energie Description 🎯 Contexte & Objectifs Intégré(e) à la squad Data Platform, vous interviendrez sur les activités de build, run et automatisation d’une plateforme de données Cloud (AWS / Azure). Votre rôle sera clé pour : Participer à la réalisation du workplan et aux user stories du backlog. Contribuer aux activités de support N2/N3 (RUN) et de Build. Livrer et suivre les artefacts de mise en production. Proposer et mettre en œuvre des optimisations FinOps, sécurité et observabilité. Développer des microservices et automatiser les pipelines & déploiements. 🛠️ Missions principales Participer au développement et maintien de la Data Platform Cloud. Créer et maintenir des processus de déploiement automatisés avec Terraform. Développer des microservices en Python et maîtriser l’intégration (CI/CD). Assurer le monitoring et l’exploitation via Grafana, App Insights. Contribuer aux flux ETL/ELT et à l’alimentation du Data Lake (AWS S3, ADLS Gen2). Gérer les activités RUN/SRE : supervision, support, automatisation. Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et FinOps. Collaborer en mode Agile/Scrum avec les parties prenantes (Data Officers, Data Architects, Engineers). Maintenir la documentation et promouvoir une approche User-Centric (recueil feedbacks, amélioration UX).

Mission freelance
Data Analyst Aix en Provence Maîtrise de SAP BusinessObjects 4.2 / Fiori et Transact-SQL
Data Analyst Aix en Provence Maîtrise de SAP BusinessObjects 4.2 / Fiori et Transact-SQL (SQL Server, Teradata). Connaissance des packages SSIS et méthodologies projet (Agile, Cycle en V, Lean). Capacité à recueillir les besoins, rédiger un cahier des charges et réaliser une recette technique. Missions principales Support et assistance technique Assurer le suivi quotidien des jobs SQL (SQL Server) et planifications BO-BI4. Analyser et résoudre les incidents de premier niveau, rédiger les demandes d’assistance si nécessaire. Gérer les habilitations BO et accompagner les utilisateurs dans l’usage des outils. Développement et migration Concevoir et migrer des solutions Data (datamarts, alimentation applicative, API). Développer des requêtes et packages SSIS pour importer et traiter les données. Participer aux projets de migration vers MicroStrategy et Teradata. Amélioration et évolution des solutions Automatiser et fiabiliser les processus. Accompagner les utilisateurs lors des évolutions vers BO Fiori. Profil recherché Qualités attendues Rigueur, organisation et fiabilité. Autonomie, curiosité et goût pour les nouvelles technologies. Esprit d’équipe et sens du service (pédagogie, écoute et communication). Compétences techniques Maîtrise de SAP BusinessObjects 4.2 / Fiori et Transact-SQL (SQL Server, Teradata). Connaissance des packages SSIS et méthodologies projet (Agile, Cycle en V, Lean). Capacité à recueillir les besoins, rédiger un cahier des charges et réaliser une recette technique.

Offre d'emploi
DATA ENGINEER SPARK / SCALA
Bonjour, Pour le compte de notre client, nous recherchons un data engineer SPARK / SCALA / SBT / CUBE TABULAIRE. Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support
Offre d'emploi
Lead data analyst - CDI
Notre client est une scale-up toulousaine qui révolutionne l'impression photo instantanée aux États-Unis depuis 2010. Grâce à ses applications mobiles et web, elle permet aux utilisateurs de commander leurs photos et de les récupérer en moins d'une heure dans plus de 20 000 points de vente (Walmart, Walgreens, CVS) En tant que Lead Data Analyst, tu es à la fois référent technique et acteur stratégique. Tu encadres une équipe d’analystes, définis la vision data de l’entreprise, assures l’excellence analytique, et contribues activement aux choix structurants pour nos produits et notre stratégie business. 🎯 Tes missions principales : Définir, structurer et piloter la roadmap data avec les parties prenantes (Produit, Business, Engineering). Encadrer, coacher et faire monter en compétence les Data Analysts de l’équipe. Garantir la qualité, la rigueur et la fiabilité des livrables analytiques. Conduire des analyses complexes pour répondre à des enjeux stratégiques. Instaurer une culture de veille et d’innovation continue (outils, frameworks, bonnes pratiques). Représenter l’équipe data lors des comités transverses et événements internes.
Offre d'emploi
Ingénieur Intelligence Artificielle / Data Scientist (H/F)
Nous recherchons un(e) Ingénieur(e) en Intelligence Artificielle / Data Scientist pour structurer et porter nos projets IA, en collaboration étroite avec les équipes R&D, produit et en réponse aux besoins clients. Vous intégrez une équipe Tech d’une vingtaine de personnes, organisées en squads produits, et serez impliqué(e) sur l’ensemble du cycle de développement, aux côtés des Tech Leads et Architectes, avec une réelle influence sur les choix d’architecture. Selon vos envies, vous pourrez aussi contribuer aux comités transverses R&D (technique, agile, innovation...). Projets en cours : Analyse automatique de documents réglementaires (NLP + NER) Génération automatisée de workflows, formulaires et rapports intelligents Intégration d’agents IA dans l’interface utilisateur Déploiement de moteurs de recherche sémantique (RAG hybride, reranking, vector search…) Stack technique : IA / Data : Python, Pandas, Scikit-learn, Hugging Face, FastAPI, OpenAI API, PyTorch, TensorFlow (ouvert à d’autres outils) Bases de données : MariaDB, PostgreSQL, MongoDB, Elasticsearch, bases vectorielles (Chroma, Activeloop…), graphes (Neo4J…) DevOps : Docker, Swarm > Kubernetes, GitLab CI/CD Environnement général : PHP / Symfony, Vue.js 3 / TypeScript, Jira, Confluence, architecture microservices Profil recherché : Diplôme Bac+5 en informatique, mathématiques appliquées, IA ou équivalent (école d’ingénieur ou université) Minimum 3 ans d’expérience en Data Science, modélisation et intégration technique, avec idéalement des projets IA à votre actif Compétences techniques essentielles : Maîtrise avancée de Python et des principaux outils IA, Data Science, Machine Learning Bonne compréhension des enjeux liés aux produits SaaS BtoB (performance, robustesse, monitoring) Solides compétences en SQL et gestion de bases relationnelles Maîtrise des bases de données vectorielles (Chroma, Activeloop…) et techniques d’embedding (Word2Vec, GPT…) Connaissance des techniques NER, embeddings, chain of thought, RAG, function calling… Familiarité avec les environnements cloud (Azure, Google Cloud, AWS) Atouts supplémentaires : Connaissance des éditeurs de code assisté par IA (Cursor, Github Copilot) Expérience avec les bases orientées graphes (Neo4J, OrientDB…) Connaissances web PHP / Symfony / Vue.js / TypeScript Vous souhaitez relever des challenges techniques ambitieux et rejoindre une équipe dynamique au cœur d’un projet innovant ? Ce poste est fait pour vous !
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.