L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 845 résultats.
Offre d'emploi
Technicien Support Applicatif / Data – RUN (H/F)
Publiée le
Microsoft Excel
MySQL
UNIX
1 an
35k-45k €
La Défense, Île-de-France
Contexte Dans le cadre du maintien en conditions opérationnelles (RUN) des solutions TEM , la mission vise à renforcer l’équipe en charge de l’ intégration et du contrôle des données clients au sein de l’application DOCATEM . L’environnement est orienté exploitation applicative, qualité des données et traitements batch . Objectif de la mission Assurer l’ intégration fiable des données clients (parc et facturation) dans l’application DOCATEM, garantir la cohérence des données exposées aux clients et contribuer à la stabilité opérationnelle des traitements. Missions principales Générer des fichiers d’intégration à partir des portails opérateurs. Intégrer en base les données de parc et de facturation . Lancer et superviser les traitements batch . Réaliser des requêtes SQL pour extraction, injection ou corrections de données en masse. Mettre à jour les référentiels et contrôler la cohérence des données dans l’applicatif. Assurer le contrôle des intégrations automatisées . Contribuer à la rédaction et à la mise à jour du dossier d’exploitation . Livrable attendu Dossier d’exploitation Environnement technique Systèmes : Unix Bases de données : SQL Outils bureautiques : Excel Traitements : batchs, intégrations automatisées Compétences techniques Impératives : Unix – Confirmé SQL – Confirmé Excel – Confirmé
Mission freelance
Architecte Technique
Publiée le
Data governance
Infrastructure
6 mois
400-640 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de la gouvernance d’architecture, nous recherchons un(e) Architecte Technique SI pour intervenir sur la rédaction des DAT , le cadrage technique des projets et la coordination transverse entre les équipes IT. La mission s’inscrit dans un contexte SI complexe, à forte volumétrie applicative, avec une transition progressive vers le cloud Azure . Objectifs de la mission Rédiger, consolider et faire valider les Dossiers d’Architecture Technique (DAT) Cadrer techniquement les projets en lien avec les besoins métiers Garantir la cohérence technique entre applicatif, infrastructure, réseau et sécurité Coordonner les échanges entre l’ensemble des équipes IT (infra, prod, réseau, sécu, dev, MOA) Périmètre de la mission1️⃣ Rédaction et consolidation des DAT Rédiger les DAT des nouveaux projets (versioning, schémas, prérequis) Consolider les informations techniques collectées auprès des équipes internes Intégrer les retours et arbitrages du Bureau des Architectes SI Défendre les choix techniques auprès des parties prenantes 2️⃣ Cadrage technique des projets Recueillir et analyser les besoins métiers (criticité, usages, pics, dépendances) Étudier les architectures existantes et proposer des évolutions réalistes Définir les prérequis techniques : infrastructure, stockage, VM, réseau, sécurité 3️⃣ Coordination transverse Piloter les échanges avec : Administrateurs systèmes & réseaux Équipes applicatives et production RSSI Urbanistes et architectes d’entreprise Assurer le suivi du cycle de vie projet (cadrage → DAT → mise en œuvre) 4️⃣ Contribution à la cohérence du SI Participer à la construction et à la mise à jour du référentiel d’architecture Appuyer les équipes d’architecture d’entreprise Contribuer à la vision technique long terme (5 à 10 ans) Environnement technique Infrastructure : VMware, serveurs RedHat & Windows Bases de données : Oracle Réseau / Sécurité : Palo Alto Cloud : Azure (contexte hybride en construction) Applications : ~700 applicatifs Datacenter : Interxion Messagerie : Exchange on-premise → hybride
Offre d'emploi
Data Engineer / Data Analyst
Publiée le
BigQuery
CI/CD
Google Cloud Platform (GCP)
2 ans
30k-45k €
400-500 €
Lille, Hauts-de-France
Télétravail partiel
La mission consiste à : - Maîtrise de la donnée et garant de la qualité de son utilisation - Analyser les besoins des utilisateurs et proposer des solutions innovantes - Développer les solutions data - Maintenir les solutions existantes - Mettre en oeuvre des pipelines de données Compétences attendues : - Expériences significatives comme Data Engineer / Data Analyst - Maîtrise de SQL, Python, PowerBI, GCP, CI/CD, Terraform, Github et les ETL/ELT - Anglais un + Mission basée sur la métropole lilloise avec télétravail hybride
Offre d'emploi
MOA – Application ATHENES Bilingue sur Paris
Publiée le
CSS
Data Lake
Java
3 mois
Paris, France
Télétravail partiel
Je recherche pour un de mes clients un MOA – Application ATHENES sur Paris Pour l’application ATHENES le périmètre couvre : application est dédiée à l'activité de gestion des participations o La prise en charge des éléments du backlog d’ATHENES : Backlog éditeur Interfaçage CDC (flux) DataLake / Tableau Développement de Proximité Bureautique, etc. au travers de la maintenance corrective et évolutive : expression des besoins, analyse, configuration, recette o Le support utilisateur o La gestion des incidents de production, en relation avec les équipes métiers o La documentation des points ci-dessus o Suivi de KPI éditeurs o Relation avec l’éditeur, comitologie en interne et avec l’éditeur Compétences • Forte expérience en maîtrise d’ouvrage et en support sur les métiers liés au franchissement de seuil (seuils, types, déclarations, etc.) et OPA. • Connaissance approfondie de l’outil Signal de CSS/Confluence (paramétrages, configuration des règles d’alertes, ETL Studio, etc.) • Connaissance approfondie sur l’implémentation de Signal chez d’autres clients • Connaissance des règles de franchissements de seuils règlementaires et statutaires sur plusieurs juridictions (EU, USA, G20), OPA, règles sur l’actionnariat (loi Florange) • Connaissance approfondie de l’anglais (éditeur anglophone) • Connaissance approfondie du langage SQL. • Connaissance approfondie d’Excel (VBA, TCD, etc.) et la programmation (Python). • Connaissance des marchés et des instruments financiers • Connaissance des plateformes (Refinitiv) Démarrage: ASAP Durée Longue
Mission freelance
Lead Dev Java/Angular/AWS
Publiée le
Angular
Angular Material
AWS Cloud
36 mois
540-610 €
La Défense, Île-de-France
Télétravail partiel
Je cherche pour l'un de nos clients un Lead Dev Full Stack ( Java, Angular,AWS). Missions: Maintenir les applications backend en Java / Spring Boot Angular Accompagner la monté en compétences des équipes projets, leur assurer le support sur les services et usages AWS. Déployer et opérer les applications sur AWS Appliquer et s'assurer du respect des normes de qualité, de sécurité, optimisation finops et autres règles de conformité Sacem. Mettre en place le monitoring et l’observabilité Automatiser les environnements via Infrastructure as Code (IaC) Optimiser les performances applicatives et cloud Développer pour les projets l’infrastructure et services AWS en IAC avec Terraform, déployer, gérer et opérer dans une optique de sécurité, de scalabilité, de performance, de haute disponibilité, de tolérance aux pannes et d'optimisation financière. Assurer la haute disponibilité, la sécurité et la performance des plateformes
Offre d'emploi
Ingénieur JAVA - SPARK - EXPERIMENTE ( H/F)
Publiée le
Angular
Apache Spark
API REST
3 ans
44k-63k €
450-600 €
Guyancourt, Île-de-France
Télétravail partiel
Nous recherchons un ingénieur Java senior, expérimenté en développement de solutions de traitement de données avec Spark, déploiement sur Kubernetes et conception de dashboards PowerBI, capable de travailler en autonomie et en collaboration avec des équipes multidisciplinaires. Missions principales : Développement de composants Java pour la collecte, le traitement et la transformation de données via API, fichiers ou bases de données. Conception et mise en place de traitements de données avec Spark . Déploiement, gestion et optimisation d’applications sur Kubernetes. Rédaction et maintenance de tests automatisés avec Cucumber pour assurer la qualité du code. Conception et développement de dashboards et rapports PowerBI. Collaboration avec les équipes infrastructure pour garantir la sécurité et l’intégration des applications. Participation à l’amélioration continue des applications et des process de développement. Profil recherché : Expérience : 5 à 8 ans en développement Java avec une expérience sur technologies de traitement de données (Spark, Kafka, etc.). Compétences techniques : Java et frameworks Spring/Hibernate Angular pour le développement d’IHM Kubernetes et bonnes pratiques DevOps Spark 3 en Java Cucumber pour tests automatisés Développement d’API REST/SOAP, OAuth2, TDD Conception de dashboards PowerBI Connaissance des architectures microservices et expérience cloud (GCP, AWS)
Offre d'emploi
Tech Lead Data Engineer H/F
Publiée le
50k-60k €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons un(e) Tech Lead Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : sliv9e59p7
Mission freelance
Data Product Manager/PO (Rennes)
Publiée le
BigQuery
Data Lake
Data science
12 mois
500-540 €
Rennes, Bretagne
Télétravail partiel
Nous recherchons un Data Product Manager freelance hybride, technique et opérationnel, capable de traduire les besoins métiers en solutions concrètes et de participer activement à la réalisation de prototypes. Compétences et qualités : Technique : maîtrise avancée de SQL (idéalement BigQuery), capable de manipuler la donnée et de créer des dashboards simples (ex. Looker Studio) pour prototyper. Pragmatique : travailler en mode MVP rapide, tester et itérer rapidement. Relationnel : aisance relationnelle, capacité à fluidifier les échanges et créer du lien avec les équipes. Connaissance de GCP (Google Cloud Platform) Notions de Python (lecture et compréhension de scripts simples) Modalités Localisation : Rennes / Hybride (à définir) Démarrage : Dès que possible
Mission freelance
Data Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) /sa
Publiée le
DBT
Informatica
Snowflake
6 mois
400-480 £GB
Clipperton Island, France
Télétravail partiel
Data Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) Bordeaux pour diriger la migration d'IICS vers DBT sur Snowflake. Connaissance approfondie d'IICS et de dbt : maîtrise parfaite des deux outils. Spécialisation en validation : expérience dans la vérification de la parité des données 1:1 à l'aide d'outils tels que dbt_audit_helper.) Stack : Snowflake, dbt, IICS et Airflow (pour l'orchestration). 5 à 10 ans d’expérience Anglais obligatoire Démarrage : asap Durée : min 3 mois Localisation : Bordeaux de préférence sinon France L'équipe recherche un data Engineer senior pour diriger la migration d'IICS vers DBT sur Snowflake. Le candidat idéal doit jouer le rôle de « traducteur » : il doit être capable de lire des mappages IICS hérités complexes (logique de rétro-ingénierie) et de les refactoriser en modèles SQL DBT modulaires et propres. Compétences requises : Connaissance approfondie d'IICS et de dbt : maîtrise parfaite des deux outils. Spécialisation en validation : expérience dans la vérification de la parité des données 1:1 à l'aide d'outils tels que dbt_audit_helper.) Stack : Snowflake, dbt, IICS et Airflow (pour l'orchestration).
Offre d'emploi
Data Engineer - Finance (H/F)
Publiée le
Apache Hive
Bash
Hadoop
3 ans
50k-60k €
480-550 €
Île-de-France, France
Télétravail partiel
Contexte : La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Big Data & API / Squad Financing & Risk qui aujourd'hui développe et gère un datalake (FinLake). Ce datalake est utilisé comme une data plateforme pour les équipes IT et métiers. Missions : L'objectif de la mission est d'assurer le rôle de Data Engineer du FinLake : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets
Offre d'emploi
Tech Lead Data Engineer H/F
Publiée le
50k-75k €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons un(e) Tech Lead Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : 5nko8xh5pb
Mission freelance
INGENIEUR DATA BI - GENIO
Publiée le
BI
24 mois
250-500 €
Paris, France
Télétravail partiel
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Mission freelance
Implementation Specialist Data Domain & NetBackup
Publiée le
Ansible
API
Big Data
3 ans
Montreuil, Île-de-France
Télétravail partiel
Nous recherchons un Implementation Specialist Data Domain & NetBackup pour intervenir sur une architecture mondiale de sauvegarde , à très forte volumétrie. L’environnement comprend : 50 domaines NetBackup Environ 200 000 jobs/jour Rétention basée sur des librairies de bandes Mission orientée build, run, restore et analyse , avec un fort niveau d’exigence opérationnelle. Vos missions Concevoir, implémenter et administrer les systèmes Data Domain Configurer et exploiter les environnements NetBackup Gérer les opérations de : sauvegarde, restauration, réplication Optimiser les performances, capacités et flux de données Définir et mettre en œuvre les stratégies de protection des données Diagnostiquer et résoudre des incidents complexes Participer à l’automatisation (API, Python , Ansible ) Rédiger et maintenir la documentation technique Collaborer avec les équipes infrastructure, production et sécurité
Mission freelance
Responsable Technique Java fullstack
Publiée le
Angular
API REST
Spring
6 mois
100-480 €
Nantes, Pays de la Loire
Pour le besoin de mon client, je suis à la recherche d'un Responsable Technique Java fullstack Tâches Piloter techniquement une application critique de l’État (dématérialisation des autorisations d’urbanisme) Être le référent technique des équipes de développement et d’exploitation Garantir la qualité, la performance, la sécurité et la maintenabilité de la solution Travailler en environnement Agile Scrum, au sein d’un dispositif TMA & Infogérance Faire le lien entre les équipes projet, l’architecte et la direction technique
Mission freelance
Data Scientist
Publiée le
Data science
Deep Learning
IA Générative
1 an
400-550 €
La Garenne-Colombes, Île-de-France
Télétravail partiel
Et si c'était vous notre prochain(e) Consultant Chez CharliGroup, on pense qu'un bon environnement de travail, ce n'est pas juste une stack à jour ou des bureaux sympas. C'est aussi (et surtout) une équipe bienveillante, un accompagnement sincère et des opportunités d'évoluer à votre rythme, avec du sens. Aujourd'hui, on recherche un(e) Data Scientist pour renforcer notre équipe tech, dans le cadre d'une mission chez un client dans le secteur de la Banque. 2 jours de TT/ semaine Missions Le consultant aura pour responsabilités de : Réaliser l’ensemble du cycle de valorisation de la donnée : collecte, préparation, analyse de qualité, modélisation et restitution Concevoir et implémenter des algorithmes prédictifs, prescriptifs, de Machine Learning et Deep Learning Garantir la qualité, la cohérence et la fiabilité des données utilisées Traduire des problématiques métiers en modèles analytiques et statistiques, et inversement Évaluer, comparer et optimiser différents modèles selon les besoins des projets Mettre en œuvre des techniques avancées : statistiques, text mining, extraction de patterns, Big Data Réaliser des analyses exploratoires sur des données complexes Contribuer à la data visualisation et au data storytelling
Mission freelance
DATA ARCHITECT (GCP)
Publiée le
Apache Airflow
BigQuery
CI/CD
6 mois
580-720 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de sa Data Platform , l’un de nos clients grands comptes recherche un Architecte Data confirmé à senior pour accompagner ses équipes Data et garantir la cohérence, la performance et la scalabilité de l’architecture globale. Architecte Data – Environnement Cloud GCP Votre rôle Intégré(e) aux équipes Data (Product Owners, Data Engineers, Data Scientists…), vous interviendrez en accompagnement transverse sur l’architecture de la plateforme Data et des dispositifs associés. Vos principales responsabilités : Définir et garantir la cohérence de la stack technique Data Assurer le respect des normes et standards d’architecture Mettre en place et sécuriser les contrats d’interface entre équipes Auditer l’architecture existante et proposer des axes d’amélioration Réaliser une veille technologique et contribuer à l’introduction de nouvelles solutions Participer aux tests et à l’intégration de nouvelles technologies 🛠️ Developer Experience & FinOps Contribution à l’écriture de modules Terraform / Terragrunt Accompagnement des équipes sur l’ Infrastructure as Code et la CI/CD Définition des standards de développement et de déploiement Mise en place du suivi budgétaire par équipe (FinOps) Implémentation des outils de monitoring, alertes et seuils Identification et priorisation des optimisations de coûts Compétences recherchées 3 ans minimum d’expérience en tant qu’ Architecte Data Solide expertise en architecture Data & Cloud Excellente maîtrise des bonnes pratiques d’architecture Expérience en sécurisation des applications Cloud Environnement Google Cloud Platform (GCP) Maîtrise de BigQuery , Cloud Composer (Airflow) , Dataplex Langages Python et SQL Expérience avec Spark Expérience avec dbt Maîtrise de Terraform et Terragrunt
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- domiciliation et etablissement principal
- Votre avis retour à la formation face au marché IT et arrivée de l'IA ?
- entrerprise freelance incompatible avec le portage salarial?
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Projet d’enseignement création de parcours de formation/centre formation
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
2845 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois