Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 369 résultats.
Freelance

Mission freelance
Data Product Manager (Business Analyst / Solution Architect)

Comet
Publiée le
Business Analysis
Business Intelligence

12 mois
400-660 €
Île-de-France, France
Contexte de la mission En tant que membre de l'équipe, vous dirigerez un programme comprenant plusieurs études visant à améliorer et à apporter davantage de valeur au programme d'analyse du département Cybersécurité du Groupe. Ce programme soutient l'objectif du Groupe consistant à renforcer la conformité aux normes de cybersécurité et à accélérer la correction des vulnérabilités. Dans un deuxième temps, vous piloterez la mise en œuvre des solutions recommandées dans les conclusions des études. Profil : Senior / Expert Compétences requises : Excellentes compétences en communication avec les dirigeants de niveau C en anglais et en français (écrit et oral) Planification stratégique (séquençage d’une série d’études et de mises en œuvre impliquant plusieurs contributeurs) Analyse des processus métier et informatiques Expérience dans le domaine des données, de l’analyse et de la BI, avec une connaissance des plateformes, des outils et des méthodes appliquées (par exemple, Agile, revue de code, CI/CD) Maîtrise des principes de gouvernance des données, de gestion des données de référence et d’architecture des données Orientation client (réalisation d’entretiens avec les clients, réactivité et concision) Objectifs et livrables Organiser l'étude en incluant tous les participants identifiés et recueillir les exigences de toutes les parties prenantes Comprendre l'ambition, les enjeux et les objectifs de l'entreprise Organiser et animer des ateliers avec les équipes métier Recueillir toutes les contributions métier nécessaires à l'étude Documenter l'architecture fonctionnelle et les recommandations Planifier les différentes phases de travail en s'appuyant sur la proposition du département Data & Analytics et les meilleures pratiques Coordonner les contributeurs Data-as-a-Service (architecte technique, ingénieurs Data & BI) Documenter la valeur de la solution Préparer le budget et le planning de développement et d'exploitation Formaliser les propositions finales de « lancement du projet » Compétences demandées English - Confirmé Business Intelligence - Expert Strategic Planning - Avancé Masterdata Management - Confirmé Communication Professionnelle - Expert Data Architecture - Confirmé Data Governance - Avancé Business Analysis - Expert
Freelance
CDI

Offre d'emploi
Senior C# Developer – Data & Analytics Application (Ingestion & Program Management)

AVA2I
Publiée le
.NET
API REST
Azure

12 mois
Île-de-France, France
Objectifs de la mission Faire évoluer progressivement le processus d’ ingestion des bordereaux Ajout de nouvelles étapes de traitement Développement de nouveaux écrans et flux Support de nouvelles lignes métiers Participer à la refonte de l’outil de program management Développement de composants UI (Blazor) Mise en place de déclencheurs d’extraction Snowflake Gestion CRUD avec historisation / versioning Garantir la stabilité et l’observabilité des applications Logging structuré Monitoring via Application Insights Amélioration de la visibilité opérationnelle Assurer une intégration fiable avec Snowflake Stored procedures EF Core Optimisation des accès données Participer aux rituels de suivi projet Timesheets mensuelles Reporting hebdomadaire d’avancement
Freelance

Mission freelance
Data Engineer

Coriom Conseil
Publiée le
Google Cloud Platform (GCP)
Scripting
SQL

12 mois
400-490 €
Lille, Hauts-de-France
Le ou la Data Engineer sera intégré(e à l'équipe produit TOPASE NLS et aura pour principales missions de : µ ● Conception, Développement et Optimisation de Pipelines de Données sur GCP : ○ Concevoir, développer et maintenir des pipelines robustes et performants de collecte, transformation et chargement de données à partir de diverses sources (Oracle, fichiers, APIs, etc.) vers BigQuery et d'autres destinations. ○ Utiliser et orchestrer les services Google Cloud Platform (Dataflow, Dataproc, Cloud Composer/Airflow, Pub/Sub, Cloud Storage, BigQuery) pour construire des architectures de données scalables et fiables. ○ Assurer l'automatisation des traitements, la gestion des dépendances et l'ordonnancement des jobs de données. ○ Optimiser les performances des pipelines et la consommation des ressources GCP.
Freelance

Mission freelance
Tech Lead Data GCP Expert F/H

SMARTPOINT
Publiée le
Apache Kafka
CI/CD
Docker

12 mois
550-600 €
La Défense, Île-de-France
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience similaire significative dans le domaine de la banque de détail est un plus.
Freelance

Mission freelance
Data Engineer (Snowflake / Qlik) - RENNES, NANTES, BREST, CAEN

Signe +
Publiée le
Qlik Sense
Qlikview
Snowflake

6 mois
Bretagne, France
Ingénieur Data & BI (Snowflake / Qlik) Pour l'un de nos clients, nous recherchons un Ingénieur Data et BI. Périmètre Data : L'équipe Data intervient sur plusieurs domaines (Data Engineering, Data Viz, … ) Data Visualisation et BI (Qlik Cloud) : Préparer et transformer les données pour leur exploitation. Concevoir, développer et maintenir des applications et tableaux de bord interactifs. Proposer des designs pertinents de dashboards répondant aux besoins métiers. Gérer les accès utilisateurs et groupes. Assurer la maintenance et la qualité des applications existantes. L'équipe intervient également à la partie reporting et administration : Conception et automatisation de rapports (Excel, PDF, …). Supervision de la plateforme Qlik : gestion des catalogues et applications, suivi des licences, clés et APIs. Diagnostic et résolution des incidents (logs, API Qlik). Compétences requises : 3 ans d'expérience sur l’utilisation de Qlik (QlikSense, QlikCloud ...) et Snowflake (préparation et optimisation des données). Bonne compréhension des principes d’architecture BI et des bonnes pratiques de modélisation. Capacité à optimiser les applications et améliorer la performance des modèles de données. Points clés pour réussir Être autonome et curieux : (forums, documentation, veille technique)... Avoir une base technique solide sur les modules de Qlik (Analyse, Automation). Comprendre les enjeux d’administration, même si ce n’est pas le cœur du métier. Être capable de diagnostiquer les problèmes d’accès, de configuration ou de logique métier. Autonome, curieux, capacités relationnelles
Freelance

Mission freelance
AI Prompt Engineer

Phaidon London- Glocomms
Publiée le
AI
Data science
Finance

6 mois
400-550 £GB
Bordeaux, Nouvelle-Aquitaine
Conception et optimisation des invites Concevoir, améliorer et maintenir des invites de haute qualité (système, instructions, exemples, etc.). Développer des stratégies d'invites avancées : enchaînement de pensées, interactions multiples, routage, utilisation d'outils. Créer et gérer un référentiel d'invites standardisées pour les principaux cas d'usage du secteur bancaire. Intégration aux produits Collaborer avec les équipes Données et Informatique pour intégrer des invites optimisées aux assistants conversationnels. Gérer le versionnage et le suivi du cycle de vie des invites. Accompagner les équipes métiers dans la définition de leurs besoins et l'identification des cas d'usage d'IA à forte valeur ajoutée. Évaluation et assurance qualité Mettre en œuvre des cadres de test robustes : analyse comparative, analyse des hallucinations, contrôles de précision. Réaliser des tests A/B et mettre en place des outils d'évaluation semi-supervisée. Surveiller et améliorer en continu les performances conversationnelles. Conformité, Sécurité et Gouvernance Garantir la conformité aux exigences réglementaires (secteur bancaire, RGPD, loi sur l'IA). Créer et diffuser des bonnes pratiques pour les équipes métiers.
Freelance
CDI

Offre d'emploi
Data Analyste

OCTOGONE
Publiée le
Data analysis

1 an
Brive-la-Gaillarde, Nouvelle-Aquitaine
Basé à Cholet (49) ou Brive la Gaillarde (19) Description Principales responsabilités de l’offre : > Collecter, structurer et modéliser les données issues des différents systèmes industriels (ERP, MES, etc.) ; > Définir et construire des modèles de données adaptés aux besoins de reporting et d’analyse ; > Concevoir et maintenir des dashboards dynamiques sur Power BI (ou tout autre outil équivalent de data visualisation) afin de restituer les indicateurs clés de performance (KPI) aux équipes métiers ; > Participer à la mise en place de flux de données automatisés via des outils ETL (Talend de préférence) pour garantir la fiabilité et la disponibilité des informations ; > Accompagner les équipes opérationnelles dans la compréhension et l’utilisation des analyses produites ; > Identifier les axes d’amélioration, proposer des solutions innovantes et contribuer à la transformation digitale du site industriel ; > Rédiger la documentation des modèles, processus et outils déployés.
CDI
Freelance

Offre d'emploi
Interopérabilité : Ingénieur Intégration, Data & Cloud

1PACTEO
Publiée le
ETL (Extract-transform-load)
Google Cloud Platform (GCP)
Intégration

12 mois
44k-94k €
400-750 €
75000, Paris, Île-de-France
Dans le cadre de ses activités, notre client recherche un Ingénieur Intégration, Data & Cloud. L’ingénieur intervient sur la conception, le développement et l’exploitation de solutions d’intégration, de traitement de données et d’architectures cloud, dans un contexte orienté automatisation, data et DevOps. Il contribue directement à la mise en place de solutions d’interopérabilité entre systèmes hétérogènes (on-premise et cloud), en assurant la fiabilité, la fluidité et la sécurisation des échanges de données. Missions principales Intégration & Orchestration Développement et orchestration de flux d’intégration avec Magic xpi Automatisation des échanges de données entre systèmes (on premise ↔ cloud) dans une logique d’interopérabilité Intégration de services via APIs REST (authentification, appels sécurisés, transformation des données) Conception et orchestration de workflows d’intégration avec Application Integration (GCP) Cloud & Architecture (Google Cloud Platform) Conception et déploiement de solutions cloud sur Google Cloud Platform (GCP) Mise en place et gestion d’architectures data et d’intégration favorisant l’interopérabilité entre applications Gestion des environnements dev / recette / production Data Engineering & Analytics Modélisation de données et conception de pipelines ETL / ELT Traitement de volumes de données importants Optimisation de requêtes SQL avancées Analyse et data warehousing avec BigQuery Transformation et modélisation analytique avec dbt (staging, intermediate, marts, tests de qualité, documentation, versioning) ETL & Outils Data Conception et développement de flux ETL avec SQL Server Integration Services (SSIS) Automatisation des traitements d’intégration de données multi-sources Développement & Scripting Programmation Python SQL avancé Scripting et automatisation (batch processing, jobs automatisés) DevOps & CI/CD Mise en place et maintenance de pipelines CI/CD avec GitHub Automatisation des tests, builds et déploiements via GitHub Actions Gestion du versioning et des bonnes pratiques de développement Automatisation Low-Code Création de flux Power Automate (cloud et desktop) Utilisation de connecteurs et intégrations avec des systèmes tiers Méthodologies & Qualité Travail en méthodologie Agile / Scrum Application des bonnes pratiques de développement et de data engineering Contribution à la documentation technique et à l’amélioration continue
Freelance

Mission freelance
Chef de Projet Assurance (H/F)

FINAX Consulting
Publiée le
Finance

2 mois
400-700 €
Paris, France
Nous recherchons un consultant Chef de projet assurance pour le compte d’un de nos clients dans le secteur bancaire dans le cadre d’un projet de structuration et de déploiement d’offres d’assurances affinitaires. La mission vise à fiabiliser les processus, améliorer l’exploitation des données et piloter la performance des dispositifs existants. Rôles et responsabilités Piloter le lancement de programmes d’assurances affinitaires Analyser et résoudre les problématiques de données nécessaires aux activités d’assurance Définir, formaliser et documenter les modes opératoires Suivre et optimiser la rentabilité des programmes Coordonner les échanges entre les différentes entités impliquées Assurer un reporting régulier auprès des parties prenantes Compétences requises 3 à 5 ans d’expérience en gestion de projet assurance Connaissance des produits affinitaires appréciée Bonne maîtrise des enjeux data et financiers Anglais professionnel requis Capacité à structurer et piloter en autonomie Détails Démarrage : ASAP Durée : 2 mois Localisation : Île-de-France (hybride) Déplacements ponctuels à prévoir
Freelance

Mission freelance
Data Analyst (H/F) - 92 + Remote

Mindquest
Publiée le
AI
CRM
ETL (Extract-transform-load)

3 mois
250-450 €
Neuilly-sur-Seine, Île-de-France
Contexte Au sein de la fonction IT Commercial Excellence, le poste s’inscrit dans la mise en œuvre de la stratégie et de la feuille de route Digital Front-End, en étroite collaboration avec les parties prenantes métiers. Le rôle contribue également à l’innovation sur les processus, les outils et les technologies afin de soutenir la performance commerciale et la transformation digitale Mission principale La mission prioritaire consiste à piloter de bout en bout les activités de reporting et d’analytics pour un projet stratégique Route to Market en France, de la phase de définition jusqu’à la mise en œuvre opérationnelle. Le poste vise à fournir des solutions analytiques, stables, scalables et orientées métier, en s’appuyant sur les meilleures technologies du marché Responsabilités principales Piloter les activités de reporting et d’analytics de bout en bout sur des projets stratégiques Mettre en œuvre des solutions analytiques et technologiques en approche Agile Développer les capacités analytics et enrichir le portefeuille applicatif Concevoir des solutions adaptées aux besoins métiers, avec une forte orientation utilisateur Intégrer les technologies avancées de Data & AI dans les plateformes et processus Garantir la qualité, l’exploitabilité et l’organisation des données Définir les processus cibles et accompagner leur adoption par les métiers Identifier les tendances du marché, les meilleures pratiques et proposer des axes d’amélioration Évaluer les solutions aussi bien d’un point de vue conceptuel qu’opérationnel Soutenir les projets commerciaux clés au niveau local et européen Gérer les priorités locales et porter une vision régionale sur les processus et leur adoption Faire le lien entre la conception des processus et la capacité de delivery des solutions Interactions clés En interne : Parties prenantes Digital Front-End des différentes BU et BPO Équipes régionales centrales, solutions et digitales Responsables IT locaux et membres de l’équipe de direction IT Centre d’excellence Commercial Excellence Responsable IT Commercial Excellence Analyste IT Commercial Excellence En externe : Fournisseurs tiers AMS Parties prenantes Enjeux du poste Assurer un delivery agile et rapide de solutions adaptées aux besoins Stimuler l’innovation sur la donnée, les outils et les modes de fonctionnement Tirer parti des capacités digitales et analytiques internes et externes Concevoir une expérience utilisateur de qualité Mettre la donnée au cœur des dispositifs de pilotage et de transformation Intégrer l’analytics avancée et l’IA dans les usages métiers
CDI

Offre d'emploi
Vice-président Conseil Expert Data / IA

Signe +
Publiée le

85k-100k €
Paris, France
Dans le cadre de la croissance des activités autour de la Data et de l'Intelligence Artificielle, nous recherchons un(e) Vice-Président Conseil Expert Data / IA afin d'accompagner les clients dans leurs enjeux de transformation et de performance. À ce poste stratégique, vous jouez un rôle clé dans le développement de la proposition de valeur Data / IA ainsi que dans le rayonnement de l'expertise. Vos principales responsabilités : • Contribuer au développement commercial en apportant votre expertise Data / IA aux équipes de vente • Garantir un haut niveau de satisfaction client et la qualité des prestations délivrées • Promouvoir l'expertise Data / IA auprès des clients, du marché et des partenaires • Animer une communauté d'experts (structuration d'offres, partage de connaissances, diffusion de bonnes pratiques) • Accompagner les consultants en mission et contribuer à leur montée en compétences • Participer à la définition des offres et à leur mise en œuvre opérationnelle Vous intervenez auprès de clients grands comptes et ETI, notamment dans les secteurs Retail, Luxe et Industrie, sur des programmes de transformation stratégique et d'amélioration continue. Référence de l'offre : 5xfrj8op47
CDI

Offre d'emploi
Data Engineer Databricks

KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks

45k-60k €
Paris, France
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Freelance

Mission freelance
Chef de Projet Talend Data Integration – ETL & Streaming (Talend / Kafka) -- 92

Montreal Associates
Publiée le
Apache Kafka
API
Confluence

7 mois
550-700 €
Puteaux, Île-de-France
🚀 Chef de Projet Talend Data Integration – ETL & Streaming (Talend / Kafka) Dans un contexte grand groupe international et multiculturel, vous pilotez les services d’intégration data autour des plateformes Talend (Cloud & hybride) et Kafka Confluent , avec des enjeux forts de scalabilité, performance et gouvernance data . • Pilotage du RUN et des projets (CRM, PIM, annuaire…) • Cadrage des besoins, architecture et conception des flux data • Management d’une équipe offshore (Inde) • Suivi opérationnel des plateformes Talend & Kafka (monitoring, upgrade, incidents) • Gestion du capacity planning & facturation • Définition et diffusion des bonnes pratiques data & intégration 🔎 Ce que l’on recherche Un Chef de Projet Data très opérationnel , capable de piloter à la fois le RUN et les projets, avec une vraie expertise technique ETL/streaming et une capacité à gérer des environnements complexes à grande échelle. #Data #ETL #Talend #Kafka #Streaming #DataEngineering #ProjectManager #Freelance
Freelance
CDI

Offre d'emploi
Chef de projet Oracle Finance (H/F)

HOXTON PARTNERS
Publiée le
Oracle
Oracle ERP Cloud

6 mois
55k-60k €
550-620 €
Lille, Hauts-de-France
Dans le cadre d’un programme de transformation des systèmes financiers, nous recherchons un Chef de Projet Oracle R12 Finance afin de piloter des déploiements ERP et d’accompagner les équipes métiers. Le poste s’inscrit dans un environnement structuré avec des enjeux de fiabilisation et d’optimisation des processus financiers. Cette offre est sur un format de pré-embauche. Missions Piloter les projets de déploiement et d’évolution d’Oracle R12 Finance Recueillir et analyser les besoins métiers liés aux processus financiers Assurer le paramétrage et l’adaptation de la solution en lien avec les équipes techniques Coordonner les différents acteurs du projet (métiers, IT, intégrateurs) Garantir la qualité des livrables, le respect des délais et des budgets Accompagner les utilisateurs et assurer la conduite du changement
Freelance
CDI

Offre d'emploi
Consultant Métier Finance de Marchés Senior (H/F) – IDF

Amontech
Publiée le
AMOA

1 an
40k-57k €
400-500 €
Île-de-France, France
Contexte de la mission Dans le cadre d’un projet stratégique au sein d’un grand acteur du secteur bancaire, nous recherchons un Consultant Métier Finance de Marchés Senior. La mission s’inscrit dans un contexte de structuration et d’optimisation du support, avec des enjeux forts de performance, de gouvernance et d’amélioration continue. Missions Structuration et pilotage du support Définition des processus (incidents, demandes, escalades) Mise en place de la gouvernance (rôles, responsabilités, RACI) Harmonisation des pratiques entre équipes Pilotage de la performance Définition et suivi des indicateurs (SLA, backlog, temps de résolution) Mise en place de dispositifs de monitoring Identification des axes d’amélioration continue Gestion de projet et coordination Recueil des besoins métiers Rédaction des spécifications fonctionnelles Suivi des développements avec les équipes IT Organisation et pilotage des recettes Accompagnement à la mise en production Interface transverse Coordination avec les équipes métier, IT et production Animation des instances et rituels Formation des utilisateurs et rédaction de la documentation
Freelance

Mission freelance
POT9115 - Un Data Engineer Airflow Confirmé sur Tours

Almatek
Publiée le
Python

6 mois
Tours, Centre-Val de Loire
Almatek recherche pour l'un de ses clients un Un Data Engineer Airflow Confirmé sur Tours. Objectif : Analyser l’usage, l’organisation et/ou la performance d’Airflow dans le service, afin d’identifier des axes d’amélioration, risques ou optimisations. Compétences requises: Airflow - Confirmé - Impératif Python - Confirmé - Impératif Power BI - Confirmé - Appréciable Mission possible en Full Distanciel avec quelques déplacement à Tours au démarrage Almatek recherche pour l'un de ses clients un Un Data Engineer Airflow Confirmé sur Tours. Objectif : Analyser l’usage, l’organisation et/ou la performance d’Airflow dans le service, afin d’identifier des axes d’amélioration, risques ou optimisations. Compétences requises: Airflow - Confirmé - Impératif Python - Confirmé - Impératif Power BI - Confirmé - Appréciable Mission possible en Full Distanciel avec quelques déplacement à Tours au démarrage

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

5369 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous