Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 699 résultats.
Freelance
CDI

Offre d'emploi
Consultant(e) Data confirmé(e), expert(e) QlikView et Qlik Sense (F/H)

Argain Consulting Innovation
Publiée le
ETL (Extract-transform-load)
Informatica PowerCenter
Qlik Sense

120 jours
38k-44k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un(e) Consultant Data confirmé(e) , expert(e) QlikView et Qlik Sense (F/H) Vous interviendrez : Chez les clients, selon le cadre et les objectifs définis afin de : Analyser des besoins métiers Concevoir et développer de dashboards QlikView / Qlik Sense Scripting avancé & modélisation de données Intégrer & automatiser des flux sous Informatica Requêtage et optimisation SQL (Oracle) Tests, recettes, mise en production Accompagnement et support des utilisateurs Au sein du cabinet : Contribuer au développement du cabinet (développement commercial, optimisation des processus internes, formation et mentorat), Participer à des projets internes relatifs à nos activités évènements, QVT, RSE, Mener et réaliser des projets associatifs (mécénat auprès de nos associations partenaires)
CDI

Offre d'emploi
Product Owner - Intégrations & Plateforme SaaS F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Figma
JIRA
Scrum

Bordeaux, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Product Owner Sénior F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
DevOps
JIRA
Kanban

Orange Lyon Lumière, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Tech Lead Data GCP Expert F/H

SMARTPOINT
Publiée le
Apache Kafka
CI/CD
Docker

12 mois
550-600 €
La Défense, Île-de-France
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience similaire significative dans le domaine de la banque de détail est un plus.
Freelance
CDI
CDD

Offre d'emploi
Master Data Manager SAP

SARIEL
Publiée le
ERP
Master Data Management (MDM)
SAP

12 mois
Villepinte, Île-de-France
Bonjour, Nous recherchons pour notre client basé en région parisienne un SAP MDM Intitulé du poste Responsable Master Data (Master Data Manager) Localisation : Siège – Villepinte Rattachement hiérarchique : Architecte Informatique Environnement : Systèmes d’information – Data, Intégration & Middleware Encadrement Management direct d’une équipe de Data Stewards __________ Contexte et enjeux du poste Dans un environnement multi-ERP et multi-applicatif, le Responsable Master Data est garant de la qualité, de la cohérence et de la gouvernance des données de référence. Il définit, maintient et fait évoluer le dictionnaire de données, pilote les logiques de migration et sécurise les flux d’échanges de données entre les différents ERP (dont SAP) et briques applicatives. Ce rôle est clé dans les projets de transformation digitale, de migration ERP et d’urbanisation du SI. __________ Missions principales Gouvernance et qualité des Master Data • Définir, maintenir et faire évoluer le dictionnaire de données (modèles, attributs, règles de gestion) • Garantir l’application des standards et règles de gouvernance des données • Assurer la qualité, la cohérence et l’unicité des données de référence • Mettre en place des indicateurs de qualité de données (DQ) Flux de données & interopérabilité • Définir et piloter les logiques d’interaction et de synchronisation des données o Entre ERP (SAP, autres ERP) o Entre ERP et briques applicatives (CRM, WMS, BI, outils métiers…) • Travailler avec les équipes techniques sur les flux ETL / ELT • Participer à l’urbanisation du SI Data Migration de données • Piloter et sécuriser les projets de migration de données • Définir les règles de mapping, de transformation et de reprise des données • Participer aux phases de tests, de validation et de mise en production • Capitaliser sur les retours d’expérience pour améliorer les processus Management de l’équipe Data Steward • Encadrer, animer et faire monter en compétence l’équipe de Data Stewards • Définir les rôles, responsabilités et priorités • Assurer l’alignement entre les métiers, l’IT et la gouvernance data • Être le point de référence sur les sujets Master Data Collaboration transverse • Travailler étroitement avec : o Les équipes métiers o Les équipes IT / ERP / BI o Les chefs de projet data et ERP • Participer aux comités de gouvernance Data __________ Objectifs clés du poste • Sécuriser la fiabilité et la cohérence des données de référence • Réussir les projets de migration et de transformation ERP Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
CDI

Offre d'emploi
Data Analyst / Développeur C# - Python – secteur bancaire (F/H)

CELAD
Publiée le

38k-43k €
Dijon, Bourgogne-Franche-Comté
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 1 jour de télétravail / semaine - Dijon (21) - Expérience de 4 ans minimum Vous aimez comprendre ce que racontent vraiment les données… et surtout les transformer en décisions concrètes ? Si vous cherchez juste à faire des dashboards… ce poste ne va pas vous intéresser. En revanche, si vous aimez travailler sur de gros volumes de données , avec des enjeux bancaires concrets (clients, fraude, pilotage) , vous allez rapidement voir l’impact de votre travail. Vous intervenez dans un environnement où la data est au cœur des décisions. Pourquoi on a besoin de vous ? L’équipe se renforce pour mieux exploiter les données issues du système d’information bancaire commun. Objectif : transformer des données complexes en analyses utiles pour les équipes métier (finance, risques, marketing…). Ce que vous allez faire concrètement : 1/ Vous explorerez les données pour répondre à des questions concrètes Vous travaillerez sur des données clients, des opérations bancaires, des indicateurs de performance ou encore des sujets liés à la fraude et à la conformité. Par exemple, vous pourrez être amené à : - identifier des comportements inhabituels dans les flux bancaires ; - comprendre pourquoi un indicateur métier évolue ; - aider une équipe à mieux connaître ses clients ; - produire des analyses utilisées pour piloter l’activité. 2/ Vous utiliserez SQL pour analyser de gros volumes de données Vous interrogerez les bases de données afin d’extraire, croiser et fiabiliser les informations. L’objectif n’est pas seulement d’écrire des requêtes, mais de faire parler la donnée pour aider les métiers à décider plus vite et plus justement. 3/ Vous développerez en C# et Python pour automatiser et fiabiliser les traitements Vous utiliserez C# et Python pour : - automatiser certaines analyses ; - construire ou améliorer des traitements de données ; - rendre les analyses plus robustes et plus rapides ; - industrialiser ce qui fonctionne pour éviter les retraitements manuels. 4. Vous construirez des modèles de données exploitables Vous structurerez les données pour qu’elles soient plus simples à utiliser. Concrètement, vous créerez des modèles permettant aux équipes métier de retrouver rapidement la bonne information, sans dépendre à chaque fois d’un traitement spécifique.
Freelance

Mission freelance
Développeur Data (H/F) – Confirmé – Nantes

CAT-AMANIA
Publiée le
Apache Hive
Apache Spark
Artifactory

1 an
Nantes, Pays de la Loire
Dans le cadre du renforcement d’une équipe Data au sein d’un grand groupe du secteur financier, nous recherchons un Développeur Data confirmé basé à Nantes . Vous interviendrez sur des projets stratégiques liés à l’ingestion, la transformation et la valorisation des données dans un environnement Big Data. Vos missions : Développer des user stories liées à l’ingestion et transformation de données (ETL / SQL) Réaliser les tests unitaires et participer à la recette fonctionnelle Déployer les développements sur différents environnements Rédiger la documentation technique Participer à l’analyse et au chiffrage des besoins Assurer le suivi des traitements en production (run) Contribuer aux cérémonies Agile Scrum
CDI

Offre d'emploi
Product owner confirmé F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Scrum

69001, Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Chef de projet IT F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le

Toulouse, Occitanie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Développeur Android Confirmé F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
CI/CD
Firebase
Git

Aix-en-Provence, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Product Owner - F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
JIRA
Kanban
Scrum

Bordeaux, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Cloud Automation & Data Engineering

ROCKET TALENTS
Publiée le
AWS Cloud
CI/CD
Data governance

1 an
360-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Cloud Automation & Data Engineering Contexte général Pour le compte d’un grand groupe industriel international nous recherchons un profil Cloud Automation & Data Engineer afin d’intervenir sur des environnements cloud AWS à forte composante automatisation, DevSecOps et data platforms . La mission s’inscrit dans un contexte de modernisation des plateformes cloud et data , avec des exigences élevées en matière de sécurité, gouvernance et industrialisation . Objectifs de la mission Automatiser et fiabiliser les infrastructures cloud et les services data Industrialiser les déploiements applicatifs et data via des pratiques DevSecOps Concevoir et maintenir des plateformes cloud et data scalables, sécurisées et conformes Accompagner les équipes projets sur les bonnes pratiques cloud & data engineering Responsabilités principales 1. Automatisation des infrastructures cloud Conception et mise en œuvre d’infrastructures cloud as code (Terraform) Automatisation du provisioning et du cycle de vie des ressources cloud AWS Optimisation des environnements cloud (scalabilité, disponibilité, performance) Automatisation des services data AWS (S3, Glue, Kinesis, etc.) Industrialisation et supervision des pipelines data 2. DevSecOps & CI/CD Mise en place et amélioration de pipelines CI/CD Intégration des contrôles de sécurité dans les chaînes de déploiement Automatisation des tests, validations de données, contrôles de qualité et schémas Utilisation d’outils type GitLab, GitHub, Jenkins 3. Platform Engineering & Data Platforms Conception de plateformes applicatives cloud (microservices, serverless, conteneurs) Contribution à des frameworks et outils internes de platform engineering Conception et maintien de composants data : data lake, ingestion, événements Mise en œuvre d’architectures orientées événements et données (Lambda, Kinesis, etc.) 4. Sécurité & conformité cloud/data Implémentation des mécanismes de sécurité (IAM, KMS, chiffrement, contrôle d’accès) Application des politiques de gouvernance et conformité cloud Gestion de la gouvernance data : catalogage, classification, traçabilité, accès Mise en place de politiques de rétention, audit et monitoring des données sensibles 5. Collaboration & expertise Travail en étroite collaboration avec des équipes pluridisciplinaires (DevOps, architectes, sécurité, data) Partage de bonnes pratiques et accompagnement technique Veille technologique et recommandations sur les évolutions cloud & data Formation et mentoring sur les services data AWS et les modèles d’automatisation Compétences attendues Techniques Expertise AWS (infrastructure et services data) Infrastructure as Code : Terraform DevSecOps & CI/CD Conteneurisation et orchestration (Docker, Kubernetes) Architectures serverless et microservices Scripting et développement : Python, Bash, SQL Data engineering : ETL/ELT, data modeling, data lifecycle Gouvernance et qualité de la donnée Connaissance de Snowflake appréciée Transverses Bonne capacité d’analyse et de résolution de problèmes Autonomie et sens de l’industrialisation Bon relationnel et capacité à travailler en environnement complexe Approche pragmatique entre contraintes opérationnelles et ambitions techniques
Freelance

Mission freelance
Data Engineer

Coriom Conseil
Publiée le
Google Cloud Platform (GCP)
Scripting
SQL

12 mois
400-490 €
Lille, Hauts-de-France
Le ou la Data Engineer sera intégré(e à l'équipe produit TOPASE NLS et aura pour principales missions de : µ ● Conception, Développement et Optimisation de Pipelines de Données sur GCP : ○ Concevoir, développer et maintenir des pipelines robustes et performants de collecte, transformation et chargement de données à partir de diverses sources (Oracle, fichiers, APIs, etc.) vers BigQuery et d'autres destinations. ○ Utiliser et orchestrer les services Google Cloud Platform (Dataflow, Dataproc, Cloud Composer/Airflow, Pub/Sub, Cloud Storage, BigQuery) pour construire des architectures de données scalables et fiables. ○ Assurer l'automatisation des traitements, la gestion des dépendances et l'ordonnancement des jobs de données. ○ Optimiser les performances des pipelines et la consommation des ressources GCP.
Freelance

Mission freelance
Architecte Power BI / Data Engineer Senior – Expert Advisory (H/F)

HOXTON PARTNERS
Publiée le
Microsoft Power BI
Powershell

4 jours
Paris, France
Dans le cadre de plusieurs sujets techniques autour de Power BI, nous recherchons un Architecte Power BI / Data Engineer senior pour intervenir sur des problématiques à forte complexité technique. La mission consiste à apporter une expertise de haut niveau sur des sujets avancés tels que l’analyse et la documentation des API Admin V2 Power BI, l’identification des applications ne utilisant pas les fonctionnalités de gestion d’accès (Custom Message), l’expertise sur les capacités Power BI en mode Pay-As-You-Go, ainsi que l’analyse et la configuration des environnements Gateway (PowerShell, VMNET, réseau). Le consultant interviendra en tant qu’expert afin d’apporter des recommandations d’architecture, résoudre des problématiques complexes et accompagner les équipes sur des sujets techniques critiques. L’intervention se fera sous forme de sessions d’expertise ponctuelles de 2 à 4 heures.
CDI

Offre d'emploi
Cloud Data Engineer AWS H/F

VIVERIS
Publiée le

45k-55k €
Grenoble, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre de projets stratégiques autour de la donnée et de l'intelligence artificielle, un grand groupe industriel renforce ses équipes afin de structurer et valoriser des données issues d'environnements industriels complexes. La mission s'inscrit dans une dynamique de construction et d'optimisation de plateformes data, avec des enjeux forts autour de la qualité, de la volumétrie et de l'exploitation des données pour des cas d'usage avancés (analytics, IA). L'environnement technique repose sur un écosystème cloud AWS, avec des outils modernes de data engineering tels que Databricks et Apache Spark, ainsi qu'une forte culture DevOps. Vous intégrerez une équipe en charge de l'ingestion, du traitement et de l'exposition de données à grande échelle. Responsabilités : - Concevoir et procéder à la maintenance des pipelines de données, de l'ingestion à l'exposition ; - Contribuer à l'optimisation des traitements de données à grande échelle et à la fiabilisation des flux ; - Collaborer avec les équipes data et IA afin de garantir la disponibilité et la qualité des données pour les usages analytiques et machine learning.
CDI

Offre d'emploi
Product owner PC de maintenance F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Scrum

Saint-Pierre-des-Corps, Centre-Val de Loire

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

5699 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous