Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 350 résultats.
Freelance
CDI

Offre d'emploi
Architecte DATA/IA

Ipanema Technology
Publiée le
Big Data
Business Intelligence
Data management

1 an
73k-121k €
700-950 €
Île-de-France, France

En tant qu'Architecte Data & Analytics pour un cabinet du Big Four, votre rôle consistera à développer des solutions robustes et pérennes autour de la transformation numérique et des projets en Intelligence Artificielle en collaboration avec la DSI. Vos principales missions incluent : Architecture Fonctionnelle et Urbanisation du SI : Structurer les architectures data fonctionnelles et techniques selon les besoins métiers. Etudes des besoins métier et chiffrage des solutions : Analyser les demandes en lien avec les équipes métiers et proposer des solutions techniques chiffrées. Architecture Solution : Assurer l'architecture des solutions, de la conception à la mise en production, pour garantir leur intégration fluide dans le SI. Catalogue Technologique : Maintenir et enrichir les stacks techniques et outils utilisés. Vous interviendrez aussi sur : La proposition d’architectures techniques en réponse aux besoins d’analyse et de traitement des données, avec estimation détaillée des coûts. La définition des frameworks, standards, et principes de modélisation des données de référence. L’amélioration continue des solutions en termes de performance, capacité, coût, sécurité. La mise en place de bonnes pratiques de développement et collaboration avec les équipes DSI dans une démarche DevOps. La veille technologique pour optimiser l’efficacité du SI.

CDI

Offre d'emploi
Data Analyst Power BI (H/F)

SYD CONSEIL MANAGEMENT
Publiée le

40k-45k €
Nantes, Pays de la Loire

🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes (44) 🏠 Télétravail : 1 jour par semaine ( non négo ) ✔Démarrage ASAP ou sous 3 mois ✏ CDI client final (pré-embauche) 👉 Contexte client : Dans le cadre de notre développement, nous recherchons un Data Analyst Power BI (H/F) afin d'intégrer la DSI de notre client. Tes responsabilités principales sont : Participer aux projets de mise en place de Snowflake, Power BI et Azure Améliorer la structuration et la qualité de la donnée Collaborer avec les différentes parties prenantes : intégrateurs, métiers, DSI ...

Freelance
CDI
CDD

Offre d'emploi
Data Steward – Secteur Financement d’Entreprises

AS INTERNATIONAL
Publiée le
Data management
Finance

3 ans
40k-45k €
400-500 €
Nanterre, Île-de-France

Contexte : Un acteur majeur du secteur financier, spécialisé dans le financement de biens d’équipement et immobiliers pour les entreprises, présent à l’international, recherche un Data Steward pour intervenir dans le cadre d’un programme Data Management. L’entreprise propose différents types de solutions : crédit, crédit-bail mobilier et immobilier, location, wholesale, location longue durée avec gestion de parc, revolving, etc. La mission s’inscrit au sein d’une entité IT en charge de l’évolution et de la maintenance d’applications dédiées aux métiers Finance, Risk et ALMT. L’objectif est de piloter et réaliser la documentation des données, notamment la production du Business Data Dictionary , du Business Data Model et de la Data Asset Confidentiality Card . Lieu de mission : Nanterre

Freelance

Mission freelance
Data Scientist Machine Learning / Deep Learning et IA Générative -Aix eb Provence

WorldWide People
Publiée le
Data science
Machine Learning

6 mois
350-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Data Scientist Expérience souhaitée : 3 ans minimum 2 à 3 jours sur site Compétences requises Expérience confirmée en Machine Learning / Deep Learning et IA Générative. Bonne maîtrise de Python, SQL, Pandas, Scikit-learn, Numpy, Jupyter Notebook, Streamlit. Maîtrise des frameworks : TensorFlow, PyTorch. Connaissance du cycle de vie complet des modèles IA (conception, mise en prod, suivi). Curiosité, autonomie, capacité à faire de la veille technologique. Esprit d'équipe et envie de partager vos connaissances. Missions Analyser les problématiques métiers et démontrer la valeur ajoutée d’approches ML/DL ou IA Générative. Concevoir et mettre en production des modèles d’apprentissage automatique. Traiter de grandes quantités de données pour créer des jeux d'entraînement. Appliquer les bonnes pratiques de MLOps et assurer l’explicabilité des modèles. Présenter les résultats de façon claire aux parties prenantes et suivre la performance des modèles dans le temps. Réaliser du prompt engineering pour les modèles d’IA Générative. Effectuer des benchmarks pour évaluer les modèles IA Gen. Optimiser les modèles (paramétrage, ajustements).

Freelance

Mission freelance
Product Owner - SAP Business Partner

WHEEL OF WORK
Publiée le
Backlog management
Data governance
JIRA

9 mois
400-450 €
Lille, Hauts-de-France

🎯 Contexte de la mission Dans le cadre du déploiement de la solution SAP S/4 Hana au sein des différentes entités du groupe, nous recherchons un Product Owner spécialisé sur le domaine Business Partner (référentiel fournisseurs, clients, employés). L’objectif : piloter le run, build et déploiement de la solution, assurer la qualité de la donnée et accompagner l’onboarding des nouvelles Business Units. ✅ Missions principales Piloter le run et les évolutions de la solution SAP Business Partner. Gérer et prioriser le product backlog en cohérence avec les enjeux métier et digitaux. Rédiger les user stories , valider les développements et définir les tests utilisateurs. Coordonner les interactions entre les équipes SAP Finance, Supply Chain et IT . Contribuer à la roadmap produit et présenter les évolutions lors des sprint reviews.

Freelance

Mission freelance
Product Owner H/F

HAYS France
Publiée le
Data analysis
Data management

6 mois
Île-de-France, France

Contexte de la mission 1) Le département des données du groupe apporte leadership, expertise et gestion de la communauté dans 4 domaines : • Stratégie de données et d'IA, comme le cadre général, à travers la gouvernance impliquant les directeurs des données et de l'analytique, les leaders d'entreprise, les COO/CIO, la conformité/le risque/la sécurité ; • Culture des données et de l'IA, à travers une collaboration avec les fonctions des ressources humaines et de la communication ainsi que les leaders d'entreprise, tirant parti de la communauté des responsables locaux de la culture des données ; • Gestion de l'information, couvrant la gouvernance des données et de l'IA, la qualité des données, la documentation des données, la modélisation des données, les risques liés aux données et à l'IA, en s'appuyant sur les responsables locaux des bureaux de gestion des données ; évoluant pour intégrer l'IA et l'IA générative et une utilisation croissante des données externes et non structurées ; • Produits de données et d'IA, couvrant la conception, l'orchestration et la livraison de produits de données et d'IA à travers les entités et le groupe, débloquant l'accès aux données et à l'IA à travers les domaines (par conception cloisonnée). Objectifs et livrables 2/Description du service :Le service doit avoir une expertise en propriété de produit et en analyse commerciale pour servir les usages des données commerciales, un service pour soutenir diverses initiatives commerciales, principalement la diffusion de données partagées et de solutions d'IA à travers le Groupe pour les réclamations et la souscription P&C. Le service : • Fournira, en s'engageant avec les parties prenantes du Groupe et des Entités, une analyse et une formalisation de la compréhension des initiatives commerciales, liées à la chaîne de valeur des réclamations et de la souscription P&C ; • Apportera une contribution à la définition des exigences en matière de données couvrant toutes les dimensions des données (définitions commerciales, qualité des données, produits de données, gouvernance des données, gestion des données non structurées, plateformes de données, architecture, etc.), en fonction des exigences du Groupe et du travail de certaines Entités ayant développé des solutions locales à l'échelle. • Fournir une contribution à la définition de l'évaluation de la qualité des données et de la préparation associée pour mesurer la maturité des Entités ; • Fournir le développement (en co-développement) et l'avancement des définitions commerciales, des meilleures pratiques et des cadres pour assurer la cohérence entre les Entités et soutenir les progrès locaux. • Fournir une contribution à la définition, la conception et la livraison d'un tableau de bord pour faire rapport sur la qualité des données et la préparation des données des Entités, avec l'engagement des parties prenantes au sein du Groupe et des Entités, en alignement avec les normes Groupe et Locales ; • Fournir une contribution à la définition et à la mise en œuvre d'un plan de remédiation de la qualité des données pour progresser vers les objectifs commerciaux attendus ; • En collaboration avec l'équipe du Bureau des Données du Groupe pour l'architecture des données, la gestion des données, la gouvernance des données, l'expertise en matière de données non structurées (liste non exhaustive), y compris l'alignement avec les responsables d'initiatives commerciales dans d'autres domaines et la livraison du tableau de bord de la qualité et de la préparation des données. 3/ Livrables de service :Service à fournir : • La définition d'un cadre des exigences en matière de données et l'évaluation, le suivi et l'avancement des Entités

Freelance

Mission freelance
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o

WorldWide People
Publiée le
Data Lake

6 mois
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Freelance
CDI

Offre d'emploi
Business Analyst Data

VISIAN
Publiée le
Agile Scrum
Big Data
ETL (Extract-transform-load)

1 an
Paris, France

Rattaché(e) à la Direction Digital, Data & IS, la Data Factory œuvre pour rendre les données accessibles, les valoriser à travers des produits data métiers à base d’IA et d’Advanced Analytics, et transformer le client en un groupe orientée data (« Data-driven ») où tous les collaborateurs connaissent les enjeux de la data. La création des produits Data s’appuie sur une « plateforme Data» centrale, cloud-native, sécurisée et performante avec les technologies les plus avancées. Le client a établi un partenariat stratégique de cinq années avec Google Cloud, lui donnant accès à des technologies innovantes et des liens privilégiés avec ses experts, et permettant de disposer d’une puissance de calcul augmentée, d’accélérer l’analyse et de développer l’innovation sur de nombreux défis business et technologiques.

CDI
Freelance

Offre d'emploi
Développeur MSBI Senior – Asset Management

HIGHTEAM
Publiée le
Azure Data Factory
Microsoft SSIS
MSBI

3 ans
40k-55k €
400-550 €
Île-de-France, France

Dans le cadre d’un projet stratégique chez l’un de nos clients grands comptes, nous recherchons un Développeur MSBI confirmé pour participer à la mise en œuvre de solutions décisionnelles autour des outils Microsoft BI et de la plateforme Azure. Tâches et responsabilités Participation au cadrage technique des solutions à implémenter Développement des User Stories (US) en coordination avec les équipes projet Contribution aux phases de recette fonctionnelle , UAT et mise en production Prise en charge de la maintenance évolutive et corrective Rédaction de la documentation technique Participation à l’ amélioration continue du modèle de développement Veille au respect des standards de qualité et de développement Stack technique attendue Microsoft SQL Server 2019/2022 : SSIS (Intégration Services) SSRS (Reporting Services) Solides compétences SQL et base de données relationnelles Azure Data Factory (expérience significative attendue) Azure DevOps : bonne maîtrise souhaitée Connaissances appréciées : Python , notamment avec la librairie Pandas

Offre premium
Freelance
CDI

Offre d'emploi
Profil Data - Python

AVALIANCE
Publiée le
Python
SQL

3 ans
40k-57k €
380-480 €
Rueil-Malmaison, Île-de-France

• Objectif de la mission • Au sein de la DSI Europe, division BI & Data, seconder l’architecte leader dans l’enrichissement, le maintien et l’évolution de la Digital Data Platform • Contenu • Participer à la mise en oeuvre de jobs d’intégration de données: création, revue de pair, déploiement • Accompagner l’équipe data engineering au respect des patterns de développement du marché et des pratiques de création de jobs de la Digital Data Platform • Optimiser les performances des jobs (performance SQL, performance Python, Job Scheduling) • Optimiser les performances opérationnelles et financières de la plateforme existante • Optimiser la performance opérationnelle des équipes (automatisation, extension et optimisation du moteur de Jobs) • Participer à la valorisation de la donnée collectée auprès des métiers (publicité, data science, filiation de donnée, self-service de la donnée…)

Freelance
CDI

Offre d'emploi
Développeur Java / Spring / Groovy (H/F) Sophia Antipolis (06)

RIDCHA DATA
Publiée le
Docker
Groovy
Hibernate

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur

Contexte du projet : Nous recherchons un Développeur confirmé pour rejoindre une équipe travaillant sur une solution de Gestion Électronique de Documents (GED) intégrant des workflows métiers. Le projet consiste à ajouter de nouvelles fonctionnalités, optimiser les performances et moderniser l’architecture de l’application existante via la conteneurisation, tout en utilisant un environnement Groovy/Grails basé sur Java Spring pour le backend et React pour le frontend. Missions : Le Développeur sera en charge de la réalisation et de l’évolution de l’application en respectant les spécifications fonctionnelles et techniques définies. Plus précisément, vos missions seront les suivantes : Analyse des besoins : Participer à l’analyse détaillée des besoins fonctionnels et techniques du projet. Développement : Implémenter les solutions techniques en utilisant Java, Spring, Groovy et Hibernate, en suivant les bonnes pratiques de développement. Modernisation de l'architecture : Contribuer à l'optimisation des performances et à la refonte de l’architecture via des pratiques modernes comme la conteneurisation. Rédaction de la documentation : Créer et maintenir la documentation technique et fonctionnelle associée à l’application. Qualité du code : Assurer la qualité technique et fonctionnelle des systèmes développés. Suivi et coordination : Piloter les prestataires externes impliqués dans le projet et suivre les avancements. Compétences techniques requises : Java (Confirmé) – Expertise dans le développement backend en Java. Spring (Confirmé) – Maîtrise de Spring Framework (Spring Boot, Spring MVC, etc.). Groovy (Junior) – Connaissance ou appétence pour le développement en Groovy. Hibernate (Confirmé) – Compétences solides en ORM (Object Relational Mapping) avec Hibernate. React (Frontend) – Notions ou expérience dans l'intégration avec une IHM React. Conteneurisation (Docker/Kubernetes) – Bonne compréhension des concepts de conteneurisation et de mise en production d'applications Lieu de travail : Sophia Antipolis (3 jours par semaine sur site, 2 jours télétravail possibles selon les besoins)

Freelance
CDI

Offre d'emploi
Business Analyst Data

Management Square
Publiée le
API
Azure DevOps
Data Lake

1 an
45k-48k €
420-460 €
Paris, France

1. Contexte de la mission Au sein de la Direction Informatique, nous cherchons à renforcer le département Data & Analytics avec un Business Analyst spécialisé dans la modélisation et l'analyse des données. L’équipe Data & Analytics gère le DataHub qui centralise les données des différents référentiels et applications et alimente l'ensemble des métiers pour des besoins de reporting réglementaires ou clients, des analyses via des outils analytiques type Power BI ou Power Query , ou des développements internes via APIs ou SQL . Un projet stratégique de refonte de l'infrastructure Data a été mené, reposant désormais sur la technologie Data Lake Azure Cloud . L’entreprise s’engage dans un chantier de migration des outils FtoB vers la plateforme intégrée d’un éditeur de renommée mondiale disposant de son propre modèle de données. 2. Description de la mission Vous intervenez dans l’équipe Data & Analytics pour poursuivre la transformation de l'entreprise en tant qu’ expert Data management au sein d’une équipe de 10 personnes. En tant qu’expert, vous serez force de proposition pour définir le modèle cible qui devra préserver le modèle historique afin de limiter les impacts métiers, sans renoncer aux bénéfices du modèle proposé par l’éditeur de la solution cible, consolidé sur l’expertise d’un très grand nombre d’asset managers. Les options retenues devront répondre : aux contraintes court terme (facilité d'intégration, délais, coûts, …) et long terme (évolutivité, coût de maintenance, risque de désynchronisation des modèles, …). Vous collaborerez avec les membres de l'équipe (Dev et Business Analyst) dans un environnement Agile , et à l’échelle, avec les autres équipes impliquées dans le projet de transformation.

Freelance

Mission freelance
Techlead DENODO BI H/F

Insitoo Freelances
Publiée le
Azure Data Factory

2 ans
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Techlead DENODO BI H/F à Aix-en-Provence, France. Nous souhaitons renforcer l'équipe actuelle d'une compétence sur l'outil DENODO Les missions attendues par le Techlead DENODO BI H/F : Dans ce contexte, il s’agit de : - Suivre et intervenir dans le cadre de la montée de version DENODO V9 (depuis le Version actuelle V8) - Suivre et intervenir dans le cadre de l'administration de l'outil et de l'offre de service (Monitoring, gestion du RUN, habilitations, Roles) - Accompagner nos clients Caisse d'Epargne dans l'utilisation et le developpement de couches métiers ou composants DENODO. Principaux livrables : • dossier architecture DENODO V9 (accompagnement par un architecte BPCE SI), • documentation Conduite du changement Evolution version V8 vers version V9 • programme de developpements couhes métiers DENODO Cette mission est pilotée dans le cadre du developpement de l'offre de service Datavirtualisation

Freelance
CDI

Offre d'emploi
Expert Power Platform – (Secteur Finance) (H/F) Île-de-France, France

RIDCHA DATA
Publiée le
ALM
Microsoft Power BI
Power Apps

1 an
Île-de-France, France

Contexte du poste Notre client, un acteur majeur du secteur de la finance, recherche un Expert / Administrateur Power Platform pour renforcer son équipe et accompagner l'administration et le développement des solutions low-code / no-code. 🔧 Missions principales Administrer et sécuriser la Power Platform : gestion des environnements, des droits d’accès, et mise en œuvre des politiques de prévention des pertes de données (DLP) Déployer, configurer et adapter la gouvernance via le Kit Centre d’Excellence (CoE) et outils complémentaires Assurer la maintenance et l’évolution des outils de gouvernance (montées de version, adaptations réglementaires) Animer et faire respecter le cadre de référence Citizen Dev / Pro Dev en vigueur

Freelance
CDI

Offre d'emploi
Développeur Full Stack Confirmé (Java Quarkus / Vue.js) (H/F) Sophia Antipolis (06)

RIDCHA DATA
Publiée le
Apache Maven
CI/CD
Git

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur

🎯 Contexte du projet Dans le cadre du développement d’un outil de gestion de crise dans le domaine médical, nous recherchons un Concepteur-Développeur Full Stack confirmé pour rejoindre une équipe Agile Scrum de 5 à 10 personnes. La solution logicielle, organisée en briques techniques indépendantes, aura pour objectif d’apporter des réponses adaptées aux besoins d’un système en situation de crise : communication, gestion des patients, services bureautiques, consultation, GED, etc. Une bonne communication et une forte capacité d’adaptation seront essentielles dans cet environnement collaboratif et évolutif. 🔧 Compétences techniques requises Compétences impératives : Java (Quarkus, Hibernate-Panache, Rest, OpenApi-Swagger) – Confirmé JavaScript (Vue.js / Vuetify / TypeScript) – Confirmé Compétences importantes : Docker / Containers – Junior Bases de données relationnelles (Postgres – Minio) Git, Maven, Nexus Tests unitaires (Mockito / Junit) Compétences appréciées (plus) : OpenId Connect Pratiques DevOps et CI/CD Outils collaboratifs (Jira, Confluence)

Freelance
CDI

Offre d'emploi
Développeur backend Java Core Confirmé ou Sénior - Multithreading calculs distribués- Appache Ignite

Digistrat consulting
Publiée le
Big Data
DevOps
Java

3 ans
50k-70k €
500-600 €
Paris, France

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins

2350 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous