Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 282 résultats.
Freelance

Mission freelance
Développeur MS Dynamics

ODHCOM - FREELANCEREPUBLIK
Publiée le
Microsoft Dynamics
Power Platform

1 an
400-500 €
Île-de-France, France
Contexte : Client Bancaire Evolution et maintenance d'un applicatif à destination des agents pour les clients professionnels Projet de migration vers le cloud Missions confiées : - Analyse technique des interfaces à mettre en œuvre - Analyse technique, chiffrage et conseils dans la construction du Backlog - Suivi des User story affectées avec respect du workflow en place - Développements / tests unitaires - Revue de code / Maintien de la qualité du code par les bonnes pratiques / Pérennisation des applications - Accompagnement des recettes menées par les business analyst Déploiement des packages sur l’ensemble des couloirs de tests jusqu’à la production. - Suivi de la production quotidienne, réaliser des diagnostics sur incident, concevoir et mettre en place les correctifs, participer au déploiement des fix sur l’ensemble des couloirs de test jusqu’à la production.
Freelance
CDI

Offre d'emploi
Analyste Reporting et Qualité des Données

VISIAN
Publiée le
Dataiku
Sass
Tableau software

1 an
40k-45k €
400-650 €
Paris, France
Responsabilités Recueillir les expressions de besoin des Directions et organiser / animer les ateliers de cadrage avec les métiers Réaliser la préparation des données sous Dataiku Mettre à jour le dictionnaire de données / Documentation Développer en mode agile (sprint de 2 semaines, daily meeting, sprint planning, sprint review, retrospective, démonstrations, …) Créer les dashboards sous Tableau Organiser la recette avec les métiers Appliquer les bonnes pratiques de l'équipe en matière de datapreparation / datavisualisation Effectuer la migration des projets sous SAS vers Dataiku
Freelance

Mission freelance
Expert Sécurité : Data & AI

EMGS GROUP
Publiée le
Microsoft Copilot Studio
AI
Azure

1 an
600-650 €
Paris, France
Nous sommes à a recherche d'un Security Expert intervient sur la cybersécurité des services et plateformes IA développés et opérés par les équipes Data & Analytics. Une expertise en intelligence artificielle (usages, architectures, gestion des risques, Copilot, agents IA) ainsi qu’une maîtrise des technologies Microsoft Azure (PaaS & IaaS) sont indispensables. Objectifs et missions 1. Sécurisation des projets (Secure the build) Accompagner les équipes projets dans l’intégration des exigences de sécurité dès la conception Apporter un support aux responsables sécurité métiers sur les sujets liés à la Data & Analytics 2. Sécurité opérationnelle Garantir la conformité continue en matière de cybersécurité (plans de remédiation, amélioration continue, reporting périodique) Renforcer la culture sécurité des parties prenantes via des actions de sensibilisation et de formation Assurer la gestion des incidents de cybersécurité et contribuer à la résolution des incidents majeurs ou situations de crise 3. Amélioration continue de la sécurité Piloter la standardisation de la sécurité en définissant et en promouvant les règles, normes et référentiels de sécurité
Freelance

Mission freelance
Développeur Big Data

Codezys
Publiée le
JIRA
Linux
Python

24 mois
330-400 €
Lyon, Auvergne-Rhône-Alpes
Organisation Dans le cadre de ses activités liées au traitement de données volumineuses, une organisation recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans la gestion d'une plateforme Hadoop. Objectif de la mission Réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, notamment la mise en place d'extractions et l'accompagnement des utilisateurs. Description de la mission Le candidat, rattaché au responsable en charge du traitement de données volumineuses, sera principalement chargé de : Prendre en charge l'évolution des flux de données et reprendre les développements existants pour leur alimentation, en faisant évoluer ceux-ci selon les besoins. (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) Définir la spécification technique des tâches, fournir des requêtes de référence, réaliser des revues de code, et accompagner d’éventuels alternants ou stagiaires. Mettre en place des processus d'extraction à partir des données. Assurer le support de niveau 2. Faire respecter les consignes d’utilisation auprès des utilisateurs. Garantir le respect des délais de livraison dans un environnement exigeant. Contribuer à la maintenabilité, la performance et l’exploitabilité de la plateforme. Il veillera également à respecter l’utilisation des modèles référencés ou leur évolution, en collaboration avec la Direction Technique et la Gouvernance des Données. Le profil doit posséder des compétences avérées en communication, diplomatie, capacité d’intégration, partage de connaissances, documentation, et accompagnement des utilisateurs.
Freelance

Mission freelance
Data Engineer H/F

OUICODING
Publiée le

1 mois
420-500 €
Rennes, Bretagne
Missions principales -Industrialiser et optimiser les traitements de données en s'appuyant sur Dataiku (scénarios, plugins, recettes avancées...). -Mettre en place une architecture data fiable et optimisée, principalement sur des solutions AWS (S3, Redshift, le Common Data Hub Engie). -Développer des solutions techniques de collecte de la donnée via des API. -Modéliser les données nécessaires aux analyses et aux usages métiers. -Assurer la qualité, la sécurité et le monitoring des flux de données. -Collaborer avec la Data Analyst pour garantir la mise à disposition des données pertinentes. -Participer à la définition des bonnes pratiques Data et à leur diffusion au sein de l'entreprise. -Contribuer à la documentation technique et à l'amélioration continue des environnements. -Assurer une veille technologique sur les solutions de stockage et traitement des données
Freelance

Mission freelance
Ingénieur Data Senior +8 ans

Sapiens Group
Publiée le
Azure
Azure Data Factory
Databricks

3 mois
550-630 €
Boulogne-Billancourt, Île-de-France
Contexte Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes d'une grande entreprise médias dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions Concevoir et développer des pipelines d'ingestion de données via Azure Data Factory. Créer et optimiser des flux de transformation de données en PySpark/Python. Maintenir et développer de nouveaux indicateurs de qualité de données. Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. Garantir la qualité du code et veiller au respect des normes de développement au sein de l'équipe. Implémenter des tests unitaires et assurer la fiabilité des solutions. Mettre en place des solutions de monitoring et de supervision pour l'application Data-RH. Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci. TJM : 600-630 €
Freelance

Mission freelance
Consultant SAP IS-U / CRM

Montreal Associates
Publiée le

15 mois
600-650 €
France
Bonjour, ⚠️ 𝐀𝐭𝐭𝐞𝐧𝐭𝐢𝐨𝐧 ⚠️ 𝑼𝒏𝒊𝒒𝒖𝒆𝒎𝒆𝒏𝒕 𝒑𝒐𝒖𝒓 𝒇𝒓𝒆𝒆𝒍𝒂𝒏𝒄𝒆 𝒂𝒗𝒆𝒄 𝒔𝒂 𝒑𝒓𝒐𝒑𝒓𝒆 𝒔𝒕𝒓𝒖𝒄𝒕𝒖𝒓𝒆 𝒇𝒓𝒂𝒏𝒄̧𝒂𝒊𝒔𝒆 - 𝒑𝒂𝒔 𝒅𝒆 𝒑𝒐𝒓𝒕𝒂𝒈𝒆 𝒔𝒂𝒍𝒂𝒓𝒊𝒂𝒍, 𝒎𝒆𝒓𝒄𝒊 🚫 𝐏𝐀𝐒 𝐃𝐄 𝐒𝐎𝐔𝐒-𝐓𝐑𝐀𝐈𝐓𝐀𝐍𝐂𝐄!🚫 Je recherche actuellement pour un de mes clients un profil : 🔔 𝐂𝐨𝐧𝐬𝐮𝐥𝐭𝐚𝐧𝐭 𝐒𝐀𝐏 𝐈𝐒-𝐔 𝑀𝑖𝑛 8 𝑎𝑛𝑠 𝑑'𝑒𝑥𝑝𝑒́𝑟𝑖𝑒𝑛𝑐𝑒, 𝑖𝑑𝑒́𝑎𝑙𝑒𝑚𝑒𝑛𝑡 𝑑𝑎𝑛𝑠 𝑙𝑎 𝑟𝑒́𝑎𝑙𝑖𝑠𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑝𝑟𝑜𝑗𝑒𝑡𝑠 𝑝𝑜𝑢𝑟 𝑑𝑒 𝑔𝑟𝑎𝑛𝑑𝑠 𝑎𝑐𝑡𝑒𝑢𝑟𝑠 𝑑𝑒 𝑙'𝑒́𝑛𝑒𝑟𝑔𝑖𝑒 𝑎𝑢 𝑠𝑒𝑖𝑛 𝑑𝑒𝑠 𝑒𝑛𝑣𝑖𝑟𝑜𝑛𝑛𝑒𝑚𝑒𝑛𝑡 𝑅𝑈𝑁, 𝑇𝑀𝐴, 𝐴𝑀𝑂𝐸 & 𝑀𝑂𝐸. 🎯 𝐌𝐢𝐬𝐬𝐢𝐨𝐧 𝐄̂𝐭𝐫𝐞 𝐥𝐞 𝐫𝐞𝐬𝐩𝐨𝐧𝐬𝐚𝐛𝐥𝐞 𝐟𝐨𝐧𝐜𝐭𝐢𝐨𝐧𝐧𝐞𝐥 𝐝𝐞𝐬 𝐝𝐨𝐦𝐚𝐢𝐧𝐞𝐬 𝐂𝐑𝐌 𝐞𝐭 𝐝𝐞𝐬 𝐩𝐥𝐚𝐭𝐞𝐟𝐨𝐫𝐦𝐞𝐬 𝐝'𝐞́𝐜𝐡𝐚𝐧𝐠𝐞𝐬 𝐝𝐢𝐬𝐭𝐫𝐢𝐛𝐮𝐭𝐞𝐮𝐫𝐬. - Support applicatif de niveau 2 & 3 - Analyse et gestion des demandes de changement métier, technique et réglementaire - Rédaction des spécifications fonctionnelles et techniques - Participation aux tests unitaires, aux tests d'intégration système (SIT) et aux tests d'acceptation utilisateur (UAT) - Gestion et résolution des incidents de production - Gestion des tickets JIRA et suivi des anomalies - Contribution aux phases de déploiement, à l'hypercare et à la stabilisation du support opérationnel 🔊 𝐀𝐧𝐠𝐥𝐚𝐢𝐬 𝐜𝐨𝐮𝐫𝐚𝐧𝐭 obligatoire 📍𝐈𝐃𝐅 - 2 à 3j semaine sur site 🕐 6 mois - 𝐫𝐞𝐧𝐨𝐮𝐯. 💶 𝐓𝐉𝐌 : 600/650€ Montreal Associates is acting as an Employment Business in relation to this vacancy.
Freelance
CDI

Offre d'emploi
Data Engineer (Paris ou Lyon)

TEOLIA CONSULTING
Publiée le
BI
Data Lake
Master Data Management (MDM)

12 mois
40k-45k €
400-470 €
Paris, France
Nous recherchons pour l'un de nos clients un(e) Data Engineer pour renforcer une squad Data dédiée à la mise en place d’un socle de Master Data Management (MDM) . L’objectif du projet est de centraliser, fiabiliser et gouverner les données liées aux instruments financiers , dans un environnement exigeant en matière de qualité, traçabilité et sécurité. Missions : Intégré(e) à une équipe pluridisciplinaire (Data Engineers, Architecte, BA, PO), vous interviendrez sur : La conception et le développement de pipelines de données (modèle Bronze / Silver / Gold) L’ingestion et l’orchestration des flux via Apache NiFi L’intégration de données multi-sources (CSV, XML, API REST) La modélisation des données et la construction de vues consolidées MDM La mise en place de contrôles de qualité et de traçabilité (logs, audit, complétude, cohérence, versioning) L’optimisation des performances des pipelines Le respect des standards de sécurité et conformité La documentation et le partage de bonnes pratiques au sein de la squad Environnement technique Apache NiFi SQL / NoSQL PostgreSQL Stockage objet : S3 / Blob Formats & protocoles : JSON, XML, CSV, API REST Scripting : Python , Bash CI/CD : GitLab, GitLab CI
CDI
Freelance

Offre d'emploi
Data Scientist MLOps (H/F)

STORM GROUP
Publiée le
Apache Airflow
BigQuery
MLOps

3 ans
45k-55k €
400-500 €
Île-de-France, France
Missions : • contribution aux projets décisionnels - Big data • participation et animation de groupes de travail avec les utilisateurs et les informatiques • collecte des besoins auprès des métiers • modélisation et développement des reporting : spécification des indicateurs décisionnels (statistique, qualité, facturation) • exploration de données • rédaction des livrables : spécifications fonctionnelles et techniques, cahiers de recette • participation aux recettes • formation et accompagnement des utilisateurs
Freelance

Mission freelance
Business Analysis Market Data - Paris

Net technologie
Publiée le
Business Analyst
Market data

6 mois
Paris, France
Objectifs de la mission Gestion de projet / Business Analysis accès marché Suivi des migrations marchés et des demandes métiers sur les outils de passages d'ordres et de market data. - Analyse des impacts (techniques, fonctionnels, régulateurs et interne) des migrations marchés ou des demandes métiers sur les outils de passages d'ordres et de market data - Suivi avec toutes les équipes impactées (developpement, Production, Middle Office, Referentiel, Reporting, Regulatory, Trading Support, Trading,...) - Rédaction des spécifications à destination des équipes de développement - Suivi des développements - Etablissement des procédures de test en concertation avec l'équipe de QA - Suivi des déploiements en production en concertation avec les équipes de production en tenant compte des différentes contraintes (chronologie, versions, calendrier,...)
Freelance
CDI

Offre d'emploi
DATA MANAGER EXPERT SNOWFLAKE

BEEZEN
Publiée le
Snowflake

3 mois
40k-76k €
510-600 €
Île-de-France, France
SQL & data analysis (expert) Data quality rules, controls & reconciliation (expert) Snowflake (expert) Technical data documentation & lineage (expert) 1) Cadrage & design des Data Products (Customer) Contribuer au cadrage et à la conception des data products alignés aux besoins métiers. Apporter une compréhension fonctionnelle des processus Customer . Challenger les choix de modélisation (complexité, faisabilité, impacts cross-domain). Assurer l’alignement avec la target data architecture et les standards dès la phase de design. 2) Standards & gouvernance Data Définir / maintenir / promouvoir les standards de data management (modélisation, conventions, documentation). Produire et faire appliquer des guidelines/patterns réutilisables. Garantir l’adoption des standards sur le domaine Customer . Être garant(e) de la qualité de la documentation et des pratiques de gouvernance. 3) Urbanisation transverse & qualité long terme Assurer la cohérence et l’ interopérabilité entre domaines data. Identifier et réduire doublons / recouvrements / fragmentation autour des concepts Customer. Proposer des recommandations transverses favorisant harmonisation, réutilisation et robustesse.
Freelance

Mission freelance
Développeur Big Data

Codezys
Publiée le
Big Data
Cloudera
Data Lake

12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Le client, dans le cadre du développement et de la maintenance de sa plateforme Big Data, recherche un Développeur Big Data expérimenté (H/F) avec au moins 5 ans d’expérience en environnement Data. La mission se déroule au sein de l’équipe Big Data, chargée de l’alimentation, de l’évolution et de l’optimisation du Data Lake sous Cloudera Hadoop. L’objectif principal est de concevoir, faire évoluer et maintenir les traitements d’alimentation pour assurer la qualité, la performance et la maintenabilité des solutions. Le consultant intervient dans un contexte de production exigeant, avec de forts enjeux de fiabilité et de respect des délais. Missions principales : Développement & évolution du Data Lake : Gérer les évolutions des flux et des données à intégrer Faire évoluer les développements existants d’alimentation Maintenir les traitements d’ingestion et de transformation Concevoir des extractions de données pour répondre aux besoins métiers Stack technique : Cloudera Hadoop, Hive, Impala, Spark, Python, SQL, Shell, Linux, VBA, Jupyter Expertise technique & structuration : Rédaction des spécifications techniques Fourniture de requêtes SQL de référence Revue de code Structuration et pilotage via JIRA Documentation des processus et accompagnement des utilisateurs Encadrement de profils juniors (alternants, stagiaires) Performance & optimisation : Optimiser les traitements et requêtes Améliorer la performance et l’exploitabilité Contribuer à la maintenabilité globale Réaliser du reverse engineering dans une architecture héritée complexe Support & accompagnement : Assurer le support de niveau 2 Faire respecter les bonnes pratiques Communiquer clairement avec différents interlocuteurs (développeurs, utilisateurs, clients) Gouvernance & conformité : Veiller au respect des modèles de données Collaborer avec la Direction Technique et la Gouvernance de la Donnée pour faire évoluer les standards
Freelance
CDI

Offre d'emploi
Data Engineer

Codezys
Publiée le
Azure DevOps Services
Python

24 mois
47 260-53 560 €
450-500 €
Saint-Denis, Île-de-France
Poste : Data Engineer Nombre de postes : 1 Expérience : > 7 ans TJM d’achat max : 500€ Localisation : Île-de-France Deadline réponse : 10/02/2026 Démarrage : 09/03/2026, mission longue durée Type de contrat : Salarié ou Freelance 1) Descriptif de la mission La mission se déroule au sein d’une équipe dédiée au développement d’outils, de méthodes et d’industrialisation pour un acteur majeur du secteur ferroviaire. L’objectif est de soutenir un périmètre spécifique concernant un outil d’analyse de la régularité des circulations, basé sur un ensemble de flux issus du système d’information de l’opérateur. Ce périmètre comprend l’accès à des données consolidées et prêtes à l’analyse, permettant aux équipes métier d’utiliser des données fiables. La mission concerne notamment : Assurer la continuité d’alimentation des flux de données pour l’outil et l’équipe technique, Adapter, développer, corriger et déployer des processus ETL lors de migrations de données, Intégrer de nouveaux flux de données en garantissant l’absence de régression, Maintenir ces flux en production et garantir leur disponibilité, Définir des formats d’échange pour alimenter l’outil, Mettre en place des indicateurs de supervision, Accompagner l’équipe dans l’exploitation des nouveaux flux. 2) Livrables attendus Le cahier des charges précise une liste de livrables avec des délais indicatifs : Recette de l’API : Document de validation, comparaison entre anciennes et nouvelles données issues du nouveau format. Déploiement : Paquets SSIS / SQL déployés, paramétrage automatique, documentation d’intégration. Processus de rattrapage simple : Documentation, industrialisation, déploiement, artefacts dans un environnement de gestion de versions. Documentation des nouvelles données : Note explicative sur la nature et l’utilisation des nouvelles données. Format d’échange : Documentation complète du schéma d’échange de données. Déploiement des flux : Projets SSIS / SQL, documentation du chargement, déploiement en environnement de production. Processus de rattrapage complexe : Développement, déploiement et documentation complète. KPI BI : Mise en place d’un tableau de bord avec suivi de l’intégration, des erreurs et de la disponibilité des flux en production.
Freelance

Mission freelance
245891/Data engineer Spark Nantes

WorldWide People
Publiée le
Apache Spark

12 mois
Nantes, Pays de la Loire
Data engineer Spark Nantes La Squad Socles-Data a pour missions : • Le MCO de la plateforme Data Hub actuelle (DH V1). • La co-construction des nouvelles offres Data managées du nouveau Data Hub (DH V2) avec l’IT Groupe : o Prototypes, o Bêta-tests, o Pilotes, o Instanciation, o Homologation…etc. • La définition des normes, bonnes pratiques, guidelines pour simplifier/accélérer les futurs portages applicatifs sur Data-Hub V2. • Gouvernance opérationnelle. • La migration des Uses-Cases existants vers le Data-Hub V2 dans le Cloud privé BNPParibas. • Facilitage de l’usage des services Data. • Assurance du support et l’accompagnement des usagers des socles-Data. • Fournissement de l’expertise. Objectifs et livrables Les tâches sont: Data ingénieur : • Codage et testage des composants logiciels. • Formalisation des cas d’usages. • Conception et mise en œuvre des flux d’intégration de données. • Optimisation de la performance et la qualité logicielle. • Apport du support technique. • Bonne maitrise de l’écosystème Data / Java / SQL / Cloud. • Notions dans d’autres langages de programmation (Python, Scala) et connaître le fonctionnement des bases de données (SQL, NoSQL). Technologie Langage Niveau Starburst (Trino) SQL Moyen Astronomer Airflow Python Moyen Spark 3 Java (Scala selon vos applications) Avancé Cloud (Kubernetes, COS(S3), Vault) Bas DevOps (Gitlab, Jenkins, ArgoCD, Ansible) Go, Yaml Bas Log As a Service (elk) Moyen Java Moyen SQL Moyen Python Moyen Scala (selon vos applications) Moyen Compétences demandées Compétences Niveau de compétence SCALA Confirmé Apache Airflow Confirmé APACHE Confirmé
Freelance
CDI

Offre d'emploi
Expert Collibra - Senior Data Management - Data Governance Lead Collibra ; MDM ; DAMA / DCAM

Inventiv IT
Publiée le
Collibra
Data governance
IA

6 mois
60k-70k €
600-700 €
Île-de-France, France
Data Management Lead - Chef de projet - Senior Data Management / Data Governance Lead Collibra ; MDM ; DAMA / DCAM - réglementations Data & IA (IA Act) Conduite de programme Data complexe – environnement grand groupe. 10+ ans en Data Management / Data Governance ET GESTION DE PROJETS COMPLEXES Pilotage de programmes data transverses Contexte multi-métiers, réglementé Data Management & Gouvernance Gouvernance de la donnée (DAMA / DCAM) Data catalog, glossaire, dictionnaire de données Données de référence (MDM), qualité de la donnée Cycle de vie, linéage, classification des données Outil clé : Collibra (expert) Certification DAMA appréciée – pas nécessaire
Freelance

Mission freelance
BA/Data analyst 

Nicholson SAS
Publiée le
ETL (Extract-transform-load)
Méthode Agile
Shell

5 mois
350 €
Val-de-Marne, France
BA/Data analyst pour mon client Entité : Banque Site : Val de Marne; 2 jours/semaine obligatoire sur site Prix d’achat max : 355 euros Date de démarrage : asap Date de fin : 01/07/2027 Contexte : Au sein du pilier RPBI (« Retail, Private Banking & Insurance »), RPBI Business Solutions , gère les systèmes d’information du Réseau Private Banking . La direction RBS/DMP est en charge de la Data, de sa gouvernance, ainsi que des projets et applications des filières Marketing et Pilotage. Le Chapter DEV intervient dans le développement des applications des différentes Tribes, en intégrant les compétences techniques nécessaires au sein des Feature Teams. Mission : Le Bénéficiaire , en charge de l'application/entrepôt décisionnel CMW souhaite une expertise pour sa Feature Team , notamment sur le sujet NDOD ( Nouvelle Définition du Défaut ) mis en place depuis quelques années mais générateur de beaucoup d'analyses et/ou évolutions ==> sujet "sensible" sur lequel les demandes d'analyses arrivent au fil de l’eau, d'où capacité à pouvoir gérer une certaine pression. À ce titre, le bénéficiaire souhaite bénéficier de l'expertise du prestataire en termes de Data Analysis. Dans ce cadre, la prestation consiste à contribuer à/au(x): Compréhension des besoins métier Spécifications fonctionnelles générales et détaillées dans le respect des règles d'urbanisme (DCO, CFG, CTG) Contribution aux ateliers avec les Métiers Estimation des charges et délais des évolutions du périmètre Assistance aux comité opérationnels Support à l'entité de développement situées à Bangalore dans la mise en oeuvre Support aux Métiers, requêtage et extractions ponctuelles, réponse aux exigences réglementaires. Mise en place du plan de qualification et sa validation Profil : BA/Data analyst pour la Société Générale Nombre d’années d’expérience : + 8 ans Expérience techniques requises Expertise de l'ETL Datastage fortement recommandée (min 2 ans) Maitrise du SQL indispensable (10 ans) Expertise en Shell, sur l'ordonnanceur CTRL M, et sur SNOWFLAKE seraient les bienvenues. Notions d'Agilité Environnement anglophone Modélisation en étoile (5ans) Banque de Détail / Risque de Crédit (8 ans)
3282 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous