Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 991 résultats.
Freelance
CDI

Offre d'emploi
Business Analyst Data Collibra

1G-LINK CONSULTING
Publiée le
Collibra
Data governance
Snowflake

1 an
La Défense, Île-de-France

Dans le cadre du développement de la data marketplace d'un de nos clients et de la mise en place d’une vision 360° client, nous recherchons un Business Analyst spécialisé Data . Vos missions : Organiser l'étude et recueillir les éléments de toutes les parties prenantes Comprendre l'ambition, les enjeux et les objectifs de l'entreprise Organiser et diriger des ateliers avec les entreprises Alimenter le semantic model / référentiel pour une vision 360° client. Recueillir les besoins métiers et concevoir les modèles sémantiques. Collaborer avec les équipes data

Freelance
CDI

Offre d'emploi
Business Analyst Data (F/H)

CELAD
Publiée le
Big Data
Business Analyst

12 mois
45k-55k €
400-500 €
Île-de-France, France

Dans le cadre d’un projet stratégique au sein d’un grand acteur du secteur bancaire, nous recherchons un Business Analyst Data / BI . Vous interviendrez en proximité avec les équipes métier pour les accompagner dans la définition des besoins , la conception de solutions et le suivi de la mise en œuvre , dans un environnement riche et complexe. Vos principales activités: Dans le cadre de votre mission, vous serez amené(e) à : Analyser l’existant : évaluer les deux entrepôts de données à décommissionner en termes d’audience, d’utilisation et de fonctionnalités. Réaliser une gap analysis en comparant les fonctionnalités existantes et celles de l’outil cible, puis proposer des recommandations de mise en œuvre. Alimenter le backlog en rédigeant des user stories complètes et détaillées, incluant l’ensemble des règles fonctionnelles. Accompagner les équipes de développement , en précisant ou en faisant préciser les points nécessitant des clarifications. Définir les critères d’acceptation et tester les fonctionnalités développées pour garantir leur conformité. Piloter la phase de change management afin de faciliter l’adoption de la nouvelle solution par les métiers.

Freelance

Mission freelance
Mission de Data Engineer - Retail

SKILLWISE
Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 mois
400-550 €
Paris, France

Nous vous proposons de rejoindre un grand acteur du retail pour une mission de Data Engineer. En tant que Data Engineer vous aurez un rôle clé dans l'amélioration des sales pipelines, la modélisation de nouveaux business models de données de vente et le support aux autres équipes pour une utilisation efficace des données de vente. En tant qu'entreprise de retail , des informations de vente précises et pertinentes sont cruciales, rendant cette équipe centrale pour les processus de décision opérationnels et stratégiques clés. Les responsabilités incluront la maintenance des data flows , avec un accent particulier sur la résilience des produits et l'excellence opérationnelle. Les missions : Développement et maintenance des Data Pipelines User Enablement & Support Promotion des Best Practices Operational Excellence Stack technique : Amazon Web Services (S3) Databricks Approche SQL first avec dbt et/ou Apache Spark (PySpark) Ordonnancement avec Airflow (Python) Github

Freelance

Mission freelance
Architecte API Management Google APIGEE - GCP

KEONI CONSULTING
Publiée le
Openshift
Pilotage
Reporting

18 mois
150-600 €
Paris, France

CONTEXTE Dans le cadre du déploiement de la plateforme API Management, le client souhaite déployer la solution Google APIGEE. MISSIONS : Mission d'architecture technique et design de la plateforme API Management, basée sur Google APIGEE Hybrid, GCP et Openshift - Pilotage de projet : Assurer la planification, le suivi et le reporting des projets de déploiement d’APIs sur APIGEE Coordonner les équipes impliquées dans le projet Gérer les risques et les enjeux liés aux délais et la qualité - Analyse et conception : Participer à la conception fonctionnelle des APIs business Être en soutien des équipes sur les problématiques techniques - Formation : Capitaliser sur la conception et la mise en œuvre des APIs pour diffuser la connaissance aux équipes

Freelance

Mission freelance
Data Engineering Manager

ODHCOM - FREELANCEREPUBLIK
Publiée le
Data management
Management

12 mois
400-700 €
Issy-les-Moulineaux, Île-de-France

La Direction Data & AI Depuis 2022, les équipes DATA du Groupe sont regroupées sous la responsabilité unique d’un Chief Data Officer, et suivant 5 pôles (ou verticales) : Produit, Engineering, Gouvernance, CoE & ML/AI. Cela représente env’ 150 pers. organisées suivant le modèle « Spotify », soit en Chapter d’expertise ou en Tribu et Feature Team alignée sur un périmètre Métier. La Tribu DATA « Distribution & Hotel Services » (DHS) La tribu DATA « Distribution & Hotel Services » (DHS) fournit des produits DATA (exports, tableau de bord, dataset/tables, etc.) permettant de piloter la performance et d’améliorer les opérations de nombreuses équipes sur ces domaines d’activités :  La « Distribution » consiste à diffuser sur de multiples canaux (Direct/Indirect, B2B/B2C, etc.) nos ‘services’ (hotel, restaurant, spa), leurs disponibilités, le prix et d’éventuelles offres, puis d’assurer le processus de réservation jusqu’au paiement. Le système au cœur de ce domaine s’appelle un ‘CRS’, d’où nous collectons de nombreux référentiels, mais surtout l’ensemble des réservations, et ce à chaque étape de leur cycle de vie.  Le domaine « Hotel Services » consiste à fournir les outils de ‘gestion’ aux hôtels. Le système principal au sein d’un hôtel est ce qu’on appelle le ‘PMS’ (Property Management System). Il existe aussi des POS pour la restauration ou le spa, mais ils sont généralement connectés aux PMS afin de transmettre une partie de leurs données, notamment sur les revenues & taxes. Côté DATA, l’activité se répartie aujourd’hui entre 3 sous-équipes au sein de la Tribe. Sous la responsabilité du Tribe Tech Lead DATA ‘DHS’, le/la Tech Manager « PMS Data » aura donc la charge de… o encadrer 2 de ces 3 équipes (suivi individuel et avec les ESN, participation aux rituels, etc.) o créer un binôme fort avec son homologue ‘Produit’ (Product/Project Manager déjà présent) o piloter les chantiers de Delivery Produit, mais aussi d’améliorations (process, orga, outils) o animer les relations avec les parties prenantes (Métiers, équipes IT, Centre de Services Off-Shore) o informer et alerter les (deux) Tribes Leads DATA ‘DHS’ o participer aux activités et évènement transverses de la Tribe, du pôle ENGINEERING ou DATA. Au cours des prochains mois, ses responsabilités le/la mèneront à atteindre les objectifs suivants (non exhaustifs) : o Réduction des fichiers PMS manquants, et du délai de rattrapage (révision process/organisation, gouvernance et pilotage renforcée, amélioration de l’outillage/automatisation, etc.) o Augmentation de la couverture (et qualité) des revenus hôtels déjà collectés, et réduction du délai d’activation (et de correction) du « mapping » financier ‘hôtel’ (révision process/organisation, gouvernance et pilotage renforcée, amélioration de l’outillage/automatisation, etc.) o Déploiement de « connecteurs » pour accroitre le parc d’hôtels connectés, et répondre aux nouveaux usages métiers, tout en réduisant notre dépendance aux méthodes et acteurs ‘Legacy’. o Revue de la stratégie, de l’architecture et des capacités de la future « Hotel Data Platform » (HDP) o Co-Priorisation du backlog des équipes, planification puis suivi des roadmaps trimestrielles o Diffusion des bonnes pratiques à l’ensemble des membres de l’équipe (autonomie, efficacité) o Documentation à jour du patrimoine Data&Tech afin de faciliter l’intégration des nouveaux arrivants

Freelance
CDI

Offre d'emploi
Data Analyst Azure (H/F)

NSI France
Publiée le
Azure
Databricks
Scala

3 ans
40k-45k €
400-550 €
Paris, France

En tant que Data Analyst Azure, vous interviendrez au sein d’un pôle Data regroupant différentes compétences. Cette mission sera dans un environnement agile où l’entraide et l’esprit d’équipe sont des points forts de l’organisation. L'utilisation massive de données et le développement d’approches analytiques ne doivent plus avoir de secret pour vous. Vous aurez l’occasion d’intégrer une de nos squad dont la principale mission est de développer des cas d’usage BI, Analytics et Data Science déployés sur notre plateforme Data hébergée sur le Cloud Azure. Pour cela, vous serez amené(e) à : Participer au recueil de besoin et cadrage auprès des utilisateurs finaux Rédiger des contrats d’interfaces pour mise à disposition des données par la source de données Rédiger de la documentation technique et fonctionnelle Modéliser des données Analyser des données à travers Databricks (langage SQL, SCALA) Accompagner des Data Engineers Créer et suivre des tickets JIRA Documenter de notre outil de Gouvernance de données DATA GALAXY Analyser des incidents Une 1ere expérience dans le secteur du retail / bricolage serait appréciée.

CDI
Freelance

Offre d'emploi
Ingénieur API & Intelligence Artificielle (H/F)

Amontech
Publiée le
API
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-550 €
Île-de-France, France

Nous recherchons un API & Prompt Engineer expérimenté pour rejoindre une équipe engagée dans le développement d’une plateforme SaaS innovante dédiée au calcul d’empreinte environnementale (carbone, hydrique, biodiversité). Vous contribuerez à l’intégration de l’IA dans une gamme de produits digitaux stratégiques, en lien direct avec les équipes produit et techniques. 🎯 Missions Concevoir, développer et optimiser les agents AI et leurs fonctionnalités. Écrire, tester et améliorer des prompts . Définir et développer les APIs nécessaires au fonctionnement des agents. Contribuer au développement de nouvelles fonctionnalités en mode collaboratif. Travailler au quotidien avec Product Owners, Product Managers, développeurs et UX Designer. Garantir les bonnes pratiques de développement et la qualité technique des livrables. 🔧 Compétences recherchées 5+ ans d’expérience en développement logiciel, notamment en Python . Solide maîtrise de la conception d’APIs . Expérience confirmée en intégration de solutions AI . Bonne connaissance des méthodologies Agile (Scrum, CI/CD, GitLab, etc.) . Connaissance de l’ environnement Cloud (GCP apprécié). Excellentes qualités relationnelles et capacité à travailler en équipe. 📍 Localisation & organisation Basé en Île-de-France. Télétravail possible jusqu’à 2 jours par semaine . Équipe projet internationale et pluridisciplinaire (12 personnes). 📅 Démarrage & durée Démarrage : ASAP – septembre 2025 . Mission longue durée : 12 mois et plus . Positionnement possible en CDI ou en freelance (ouverture aux sous-traitants).

Freelance

Mission freelance
Tech lead Java/Kafka/Vue (H/F)

Insitoo Freelances
Publiée le
Entreprise Java Bean (EJB)
Google Cloud Platform (GCP)
Vue.js

2 ans
100-500 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Tech lead Java/Kafka/Vue (H/F) à Lille, France. Contexte : - 1 Développeur Front-end senior (Vue.js) - 1 Développeurs Back-end expert - 1 Product Owner (mi-temps) - 1 Product Manager - 1 Tech Lead (tiers temps) Les missions attendues par le Tech lead Java/Kafka/Vue (H/F) : En tant que Tech lead, vous serez intégré au cœur de l’équipe et participerez activement à : - La conception et l’implémentation de nouvelles fonctionnalités métier autour des règles et métriques de qualité - L’évolution de l’architecture modulaire du back-end (Spring Boot/Java 21) - L’amélioration de la scalabilité et fiabilité de la plateforme (Kafka, Kafka Stream, Firestore, PostgreSQL, GKE) - La revue de code, le mentorat éventuel et l’amélioration continue de la qualité du code - Le maintien et le monitoring de l'application Stack technique : Back-end : - Java 21 - Spring Boot 3 - Kafka, Kafka Streams - Firestore, PostgreSQL - GitHub CI/CD (GitHub Actions) - Déploiement sur Google Cloud (App Engine, GKE) Front-end : - Vue.js, (Svelte éventuellement) Profil recherché : Nous recherchons un profil expérimenté, capable d’avoir de l’impact rapidement : - Expertise confirmée en Java et Spring Boot - Très à l’aise avec Kafka (et idéalement Kafka Streams) - Bonnes connaissances en requêtes SQL complexes et environnement BigQuery - Quelques compétences en front-end (Vue.js) appréciées - Force de proposition, curieux, rigoureux, autonome - Excellente capacité de collaboration et d’adaptation en équipe

Freelance

Mission freelance
Data Analyst

CAT-AMANIA
Publiée le
Méthode Agile

1 an
320-500 €
Bordeaux, Nouvelle-Aquitaine

La mission de Data Analyst au sein du département IAC (Inscription, Actualisation, Contrôle) vise à accompagner la transformation de la DSI vers un mode produit en valorisant les données pour mesurer la valeur créée, le suivi des OKR et le comportement des usagers. Intégré aux équipes produit, le Data Analyst recueille, exploite et interprète les données issues du système d’information et de sources externes afin de produire des indicateurs fiables, pertinents et lisibles facilitant la prise de décision. Il accompagne les équipes dans la définition de leurs besoins, conçoit des tableaux de bord, garantit la qualité des données et contribue à diffuser une culture de la donnée. Force de proposition, rigoureux, réactif et doté d’un bon esprit analytique et relationnel, il maîtrise les outils de consolidation tels que Dataiku et SQL, et met son expertise au service de la performance et de la mesure de la valeur des produits du département.

Freelance

Mission freelance
Développeur Python/infra

ESENCA
Publiée le
CI/CD
Datadog
DevOps

3 mois
Lille, Hauts-de-France

L'équipe Database est composé de 20 personnes, et divisée en 2 équipes : 1 pole de DBA (14 personnes ) et 1 pole (6 personnes) de développe qui construite et maintient DBAPI, la plateforme de gestion des BDD (création de projets, gestion du finops, de la sécurité, suivi de la performance, gestion des accès, DRP...). Au sein de notre équipe Cloud Databases, tu seras un renfort dans notre équipe en charge du build et RUn de DBAPI. Tu es un développeur full stack confirmé, Curieux, force de proposition. Tu maitrise le python et a une forte appétence pour les sujets cloud et d'infrastructure. Tu as de la connaissance des principaux systèmes de BDD et souhaite approfondire tes compétences dans ce champ d'activité, sans toutefois en devenir un expert

Freelance

Mission freelance
Business Analyst

ESENCA
Publiée le
Google Cloud Platform (GCP)
Java
PL/SQL

1 an
400-480 €
Lille, Hauts-de-France

Business analyst confirmé avec au moins 3 ans d'expérience, sensible à un processus de qualité. Dans un contexte de responsabilisation, nous recherchons des ressources autonomes, orientées aux résultats, polyvalentes, capables de s'adapter au contexte et pouvant intervenir dans différents domaines. La mission aura pour objectif principal de contribuer à la mise en place d'un nouvel EPM (Enterprise Performance Management) et d'une nouvelle solution de gestion du plan d'assortiment international. Ces deux projets sont basés sur une solution logicielle unique : Board (). Activité principale : analyste (spécifications fonctionnelles et techniques), coordination avec toutes les parties prenantes des projets (notamment les éditeurs), gestion d'un backlog en fonction des priorités, entretien et renouvellement de l'agilité au sein de l'équipe. Activités complémentaires : recette fonctionnelle, traitement des incidents et demandes de service de niveau 3 Langues : français et anglais Activité principale : Analyse / Test / Spécifications fonctionnelles et techniques / Agile (Scrum) Profil : organisé, curieux, polyvalence, sérieux Technique (très fortement souhaité) : Board Technique (optionnel) : GCP, PL/SQL, Java, Talend

Freelance

Mission freelance
Ops Data Lake - Vitrolles cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o

WorldWide People
Publiée le
Data Lake

6 mois
400-500 €
Vitrolles, Provence-Alpes-Côte d'Azur

Ops Data Lake Ops Data Lake - Vitrolles cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Freelance

Mission freelance
Data Engineer – Solution Data

Signe +
Publiée le
Snowflake

6 mois
400-610 €
Lavaur, Occitanie

🎯 Objectif de la mission : Définir, développer, mettre en place et maintenir les outils et projets Analytics. 🛠️ Outils & Technologies : Python, Java, Shell Snowflake Matillion, Azure Data Factory Jenkins, Git, GitLab, CI/CD, Docker, Ansible, Kubernetes Power BI Tableau Software, Alteryx, Airflow, Denodo 📌 Responsabilités : Implémentation et industrialisation des pipelines de données Monitoring et amélioration continue Opération des projets Data & Analytics sur Data Platform Support en second niveau Veille technologique et contribution à la roadmap ✅ Compétences requises : Maîtrise des langages et outils cités Très bon niveau d’anglais Capacité à formaliser des solutions techniques Esprit collaboratif, rigueur, autonomie Pilotage de prestataires Aisance en environnement international

CDI

Offre d'emploi
MOA / BA - Mise en place d'un Datalake Hadoop

BK CONSULTING
Publiée le
AMOA
Big Data
Business Analysis

55k-65k €
Île-de-France, France

Pour mon client bancaire, je recherche MOA / BA - Mise en place d'un Datalake Hadoop. Vous interviendrez sur les sujets liés aux métiers du Financement Structuré et du Risk Management. Recueil des besoins et animation d’ateliers avec les équipes métiers (Financing & Risk) Rédaction de spécifications fonctionnelles claires et structurées Contribution à la modélisation des données et au design fonctionnel Préparation, exécution et suivi des tests utilisateurs Présentation des livrables aux équipes métiers et rédaction de synthèses Accompagnement des utilisateurs dans la conduite du changement Suivi de la qualité de production et amélioration continue

Freelance
CDI

Offre d'emploi
Expert CMDB / ServiceNow (H/F)

OBJECTWARE MANAGEMENT GROUP
Publiée le
CMDB
Data management
ITIL

1 an
50k-70k €
400-590 €
Toulouse, Occitanie

Contexte de la mission La donnée, pilier stratégique du patrimoine de notre client, est au cœur de leur performance. Son exploitation est un levier essentiel pour l'optimisation de leurs processus, l'amélioration de l'expérience client, l'accroissement de l'efficacité opérationnelle et, in fine, la croissance de leurs revenus. Pour pouvoir l'exploiter efficacement et en tirer toute la valeur, un investissement stratégique dans sa gestion et sa gouvernance est indispensable. La Direction Informatique, en phase avec cette vision, a initié une stratégie de gouvernance des données. Un département dédié a été récemment créé pour centraliser et optimiser la gestion de l'ensemble des données informatiques. Il s'appui notamment pour cela sur la solution ITSM ServiceNow : MyITService pour structurer et gérer de manière centralisée leur CMDB (Configuration Management Data Base) et leur CSDM (Common Service Model Management). Au sein de cette gouvernance de données, un accent particulier est mis sur la qualité des données dont les enjeux sont identifiés et priorisés et sur lesquels une communauté de Data Stewards est d'ores et déjà activement engagée. Votre mission consistera à : Définir et évaluer les attributs clés de la qualité des données. Analyser en profondeur les données invalides ou manquantes afin d'en identifier les causes principales. Concevoir et implémenter des tableaux de bord pertinents pour le suivi de la qualité des données CMDB. Auditer et optimiser les processus métier ayant un impact sur la qualité des données. Contribuer activement à l'élaboration et à l'évolution de la stratégie de qualité des données de la CMDB. Coordonner et piloter les actions de remédiation de la qualité des données en étroite collaboration avec les Data Owners et les équipes à l’origine des données. Proposer et mettre en œuvre des solutions techniques ou des mises à jour de données. Rédiger une documentation technique et fonctionnelle exhaustive, ainsi que des articles de base de connaissances (knowledge articles). Animer et participer au réseau des utilisateurs pour promouvoir l'adhésion aux objectifs de gouvernance des données.

Freelance
CDI

Offre d'emploi
Architecte fonctionnel transverse- Île de France (H/F)

RIDCHA DATA
Publiée le
API
Confluence
TOGAF

1 an
Vélizy-Villacoublay, Île-de-France

🎯 Contexte Au sein de la DSI, dans le département Études d’architecture , vous interviendrez en tant qu’ Architecte fonctionnel transverse sur plusieurs périmètres clés : Vie Client, Service Après-Vente (SAV), Gestion financière, sécurisation des API et gestion des identités. Votre rôle principal sera de définir les solutions d’architecture fonctionnelle transverses et d’analyser leurs impacts sur les applications et systèmes techniques existants. 📌 Objectifs et tâches principales Réaliser les cadrages des projets. Co-construire la solution avec les métiers : challenger les besoins, proposer des lotissements. Préparer et suivre l’ engagement des études fonctionnelles . Animer des ateliers de co-construction avec les équipes de développement et les métiers. Rédiger les spécifications d’architecture et les exigences fonctionnelles . Assurer le support fonctionnel tout au long de la réalisation. 📑 Livrables attendus Documents de cadrage. Fiches d’engagement d’étude. Spécifications fonctionnelles rédigées (sous Confluence). Liste des processus et use cases impactés ou créés. Diagrammes d’activité. Schémas d’architecture. Diagrammes de séquence. 📍 Lieu de la mission La mission est basée en Île-de-France

1991 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous