L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 916 résultats.
Offre d'emploi
Data Business Analyst
Publiée le
Data analysis
KPI
Méthode Agile
6 mois
Roissy-en-France, Île-de-France
Télétravail partiel
Description du poste Nous recherchons un Data Business Analyst expérimenté pour intervenir en tant qu’expert data et business auprès des équipes et des clients. Vous serez responsable de l’analyse des besoins métiers liés à la donnée, de la conception de solutions de reporting et d’aide à la décision, ainsi que de l’accompagnement des utilisateurs dans l’exploitation des données. Responsabilités Recueillir et formaliser les besoins métiers liés à la donnée et au reporting Traduire les enjeux business en spécifications data claires Concevoir et maintenir des dashboards (Power BI, Tableau) Garantir la qualité et la cohérence des données Réaliser des analyses quantitatives et qualitatives avancées Accompagner les utilisateurs et animer des formations Travailler en environnement Agile / SAFe
Offre d'emploi
Consultant Calypso Sénior - Technique et Fonctionnel (H/F)
Publiée le
Bloomberg
Calypso
Cloud
12 mois
75002, Paris, Île-de-France
Télétravail partiel
Contexte Dans le cadre de projets stratégiques menés pour un grand acteur bancaire, nous recherchons un Consultant Calypso Sénior – Technique et Fonctionnel pour intervenir sur des prestations d’expertise autour du progiciel Calypso, le poste est ouvert à des profils techniques comme fonctionnels, capables d’évoluer dans un environnement bancaire exigeant, critique et fortement intégré. Missions principales - Intervenir sur le progiciel Calypso (jusqu’à la version 18) selon un rôle technique et/ou fonctionnel - Participer aux développements, paramétrages et interfaces Calypso - Contribuer à l’analyse et à la formalisation des besoins fonctionnels métiers - Participer aux phases de déploiement et d’industrialisation (Workbench, CAT) - Assurer l’intégration de Calypso avec les systèmes et flux externes (Bloomberg, Reuters, Swift, flux temps réel) - Participer aux phases de recette, de validation et de mise en production - Garantir la qualité, la stabilité et la performance des solutions mises en œuvre - Travailler en étroite collaboration avec les équipes IT, métiers et infrastructures
Mission freelance
Data Engineer GCP
Publiée le
BigQuery
Collibra
Python
12 mois
480-600 €
Paris, France
Télétravail partiel
Dans le cadre du renforcement de la plateforme Data, vous interviendrez sur la qualité, la gouvernance et l’industrialisation des données . Vos missions principales Concevoir et mettre en œuvre des contrôles de qualité des données (Dataplex Universal Catalog) Industrialiser les contrôles via Terraform / Terragrunt Définir et produire des indicateurs de qualité des données Intégrer ces indicateurs dans le data catalog Collibra Construire et maintenir des pipelines data robustes et scalables Participer à la gouvernance des données et aux rituels de l’équipe Mettre en place et maintenir les infrastructures data et CI/CD Garantir la sécurité, la stabilité et l’évolutivité des environnements Contribuer à la documentation et à la veille technologique
Offre d'emploi
Data Engineer Elastic/OpenSearch et Kafka
Publiée le
Ansible
Elasticsearch
1 an
40k-45k €
400-620 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Dans le cadre de l'équipe Data Analytic, nous créons et maintenons des architectures Big Data pour les besoins internes de l'entreprise. Pour renforcer notre équipe support, nous proposons une mission de Data Engineering sur Elastic/OpenSearch et Kafka. Technologies principales Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) OpenSearch et Kafka Technologies couramment utilisées L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées :
Mission freelance
INGENIEUR DATA BI - GENIO
Publiée le
BI
24 mois
250-500 €
Paris, France
Télétravail partiel
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Mission freelance
Consultant fonctionnel IFS CLOUD FINANCE H/F
Publiée le
ERP
IFS Cloud
6 mois
290-600 €
Poitiers, Nouvelle-Aquitaine
Télétravail partiel
Vos missions : Déploiement du core model comptable sur IFS : paramétrage des modules Finance (GL, AP, AR, Fixed Assets, etc.). Analyse fonctionnelle : identifier les écarts entre le core model et les besoins spécifiques de la filiale. Ajustement et configuration : adapter le modèle si nécessaire, en respectant les règles Groupe. Migration comptable : accompagner la bascule complète des données et processus sous IFS. Formation et support : garantir la bonne adoption des processus et outils par les équipes locales (ateliers, documentation, assistance). Coordination projet : travailler en lien avec les équipes Finance, IT et le PMO pour respecter planning et livrables.
Mission freelance
AI-Native Software Engineer F/H
Publiée le
Copilot
IA Générative
IaaS (Infrastructure-as-a-Service)
3 mois
400-600 €
Île-de-France, France
Télétravail partiel
Tâches principales : • Se positionner comme un coach des équipes tech en place en apportant une expertise en GenAI • Permettre la montée en compétence des équipes DSI en intégrant des outils d’IA (Copilot, Claude Code) pour accélérer le développement et la documentation • Développer et maintenir des applications performantes (Java/Spring Boot, Angular/React, Node.js, etc.) en intégrant des assistants IA (Copilot, Claude Code) • Automatiser les tâches répétitives (tests, CI/CD, monitoring) pour gagner en productivité • Travailler sur des architectures modernes : APIs, Cloud PaaS/IaaS (AWS, Terraform) • Garantir la qualité et la sécurité des développements en s’assurant que les projets pilotes respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI Client • Collaborer étroitement avec les équipes produit, design et architecture • Coacher des équipes qui créent des solutions en utilisant l’IA comme assistant de la conception technique au monitoring en production
Mission freelance
Product Delivery Manager - PMO
Publiée le
Backlog management
IA
Marketing
1 an
500-650 €
Île-de-France, France
Télétravail 100%
Nous recherchons un profil orienté Produit / technique (/ IA) pour renforcer l’équipe sur un projet spécifique, avec une forte capacité à piloter la valeur délivrée et à coordonner l’ensemble des parties prenantes. ## Contexte et rôle - Intervenir comme Product Delivery Manager / profil produit senior sur un projet stratégique intégrant des enjeux IA. - Apporter du renfort sur le pilotage fonctionnel, la coordination et le suivi de la valeur (ROI) des évolutions. ## Missions principales - Suivre la définition fonctionnelle du scope, garantir la bonne compréhension du besoin et le respect du cahier des charges. - Suivre le ROI des change requests, challenger les demandes et prioriser en fonction de la valeur business - Coordonner la planification globale (roadmap, release plan) et animer la construction des backlogs : estimation, arbitrage et priorisation. ## Accompagnement du changement et marketing produit - Accompagner les équipes dans le changement : présenter les nouveautés, préparer les supports, documenter les évolutions produit. - Travailler le marketing produit : description claire des features, documentation, scénarios de démonstration, mise en avant des bénéfices. ## Dimension IA et coordination transverse - Identifier les opportunités IA : recenser les use cases, cadrer les besoins, proposer un plan d’intégration et les bénéfices attendus. - Coordonner l’ensemble des équipes métiers et techniques pour assurer une exécution fluide et alignée sur les objectifs. ## Profil recherché - Anglais courant (réunions, présentations et échanges quotidiens en anglais). - Maîtrise des pratiques agiles (Scrum, SAFe), des outils JIRA et des reportings PPT / management de stakeholders.
Mission freelance
Expert Python / IA – LLM - Orleans
Publiée le
Large Language Model (LLM)
Machine Learning
Python
6 mois
400-530 £GB
Orléans, Centre-Val de Loire
Télétravail partiel
Expert Python / IA – LLM - Orleans Localisation : Orléans Modalités : Démarrage en full présentiel, puis possibilité de 3 jours de télétravail par semaine Contexte : Plusieurs sujets stratégiques autour de l’intelligence artificielle et des modèles de langage (LLM) sont actuellement en cours, ce qui motive la recherche d’un expert Python capable d’accompagner ces initiatives. Descriptif du poste : L’expert Python interviendra sur des projets de développement back-end intégrant des briques IA. Il participera à la conception, au développement et à l’optimisation de solutions exploitant des modèles de langage (LLM), ainsi qu’à l’industrialisation de ces usages dans le SI existant. Il sera force de proposition sur les choix techniques et les architectures. Compétences attendues : Expertise confirmée en développement Python Expérience sur des projets IA / Machine Learning et/ou LLM Maîtrise de frameworks Python (Django, Flask, FastAPI ou équivalent) Expérience dans l’intégration et l’exploitation de modèles de langage (API, pipelines, prompt engineering, etc.) Connaissance des architectures API, du traitement de données et des environnements Linux Autonomie, capacité d’analyse et sens de la collaboration
Mission freelance
Data Engineer / Expert DBT Snowflake
Publiée le
DBT
Snowflake
3 mois
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un Data Engineer / Expert DBT Snowflake Data Engineer senior/expert DBT/Snowflake 5 à 10 ans d’expérience Anglais obligatoire Localisation : Paris / Lyon de préférence Compétences requises : Snowflake : Maîtrise des fonctionnalités avancées de Snowflake (Time Travel, Zero-Copy Cloning) Configuration et optimisation des entrepôts Snowflake Gestion des étapes externes et de Snowpipe pour l'ingestion à partir d'AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration de la base de données Snowflake (création/gestion d'objets, monitoring, optimisation) dbt (outil de création de données) : Développement avancé de modèles SQL dans dbt Création et optimisation de modèles de données Utilisation des macros Jinja pour créer du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des instantanés dbt pour le suivi des modifications Création de DAG optimisés avec une gestion appropriée des balises et des dépendances Documentation des modèles de données
Mission freelance
Data Engineer - Toulouse
Publiée le
Apache Spark
Java
6 mois
400-450 €
Toulouse, Occitanie
Télétravail partiel
Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un Data Engineer. Contexte Dans le cadre d’un projet data, nous recherchons un Data Engineer expérimenté pour intervenir sur des problématiques de gestion de bases de données et de traitement de données à grande échelle , au sein d’un environnement international. Missions principales Concevoir, développer et maintenir des pipelines de données fiables et performants Intervenir sur la gestion et l’optimisation des bases de données Développer des traitements data en Java Exploiter et optimiser des traitements Apache Spark SQL Assurer la qualité, la cohérence et la performance des données Collaborer avec les équipes techniques et métiers dans un contexte anglophone Participer aux échanges, réunions et documentation en anglais
Mission freelance
INGENIEUR DATA BI - CLOUD AZURE
Publiée le
Azure
BI
Cloud
24 mois
200-400 €
Paris, France
Télétravail partiel
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Offre d'emploi
Data Analyst Java Spark GCP (H/F)
Publiée le
Java
30k-35k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Vos missions ? En tant que Data Analyst Java Angular (H/F), vous serez en charge des missions suivantes: - Le développement des tâches qui vous sont assignées en respectant les spécifications - Le Code Review avec les autres développeurs du projet - L'écriture de tests unitaires et fonctionnels durant vos développements - L'industrialisation de vos développements via notre PIC (Jenkins) - La participation au Daily Scrum Meeting, Sprint Revue, Rétro de Sprint et Planning Poker La stack technique : - Python Spark GCP - BDD : SQL (MySQL, PostgreSQL, SQLServer) et/ou NoSQL (MongoDB, Cassandra, Redis) - Outils : Git, Jenkins, Jira
Mission freelance
241208/Data Scientist Azure ML Python Gitlab LLM
Publiée le
Azure
Python
3 mois
400-420 £GB
Vélizy-Villacoublay, Île-de-France
Télétravail partiel
Data Scientist Azure ML Python Gitlab LLM La mission concerne, une nouvelle entité du client créée pour développer de nouveaux cas d’utilisation en Intelligence Artificielle. La mission s’organise autour de trois axes : - Identification et analyse des besoins : participation à des ateliers d’idéation pour identifier les besoins du client et proposition de solutions algorithmiques sur mesure adaptées aux besoins. - Développement et validation des modèles d’IA : analyse des données disponibles, développement, test et validation des algorithmes de traitement de données en utilisant des méthodes d’algorithmes d’optimisation, de LLM, de Machine Learning et de Deep Learning en tenant compte des besoins en termes de sensibilité des données. - Partage de connaissance et communication : diffusion de la connaissance au sein de l'entité, partage des avancées réalisés, communication des succès et apprentissages, montée en compétence au sein de l’équipe. Objectifs et livrables Participer activement à l’identification des besoins des clients à travers des ateliers d’idéation Proposer des solutions algorithmiques sur mesure adaptées aux besoins Analyser rapidement les données disponibles pour sélectionner les modèles d'IA les plus pertinents face aux défis identifiés. Développer et tester des applications. Partager régulièrement des insights et des innovations issues des projets avec l'équipe . Communiquer efficacement en interne pour mettre en valeur les succès, les avancées réalisées et les leçons apprises. Compétences demandées Compétences Niveau de compétence Expérience solide dans le déploiement d’algorithmes d’optimisation Azure Machine Learning Gitlab CI/CD Connaissance approfondie des modèles algorithmiques (ML/DL). Programmation Python Confirmé Conduite d'atelier et de réunion Deep learning LLM
Offre d'emploi
DATA ENGINEER ANALYTIC
Publiée le
DBT
Snowflake
Tableau software
3 ans
40k-60k €
400-530 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de notre client nous recherchons un data engineer analytic SQL / DBT / SNOWFLAKE / TABLEAU. Contexte du poste Dans le cadre de la transformation digitale et de l’optimisation de l’exploitation des données, notre client recherche un(e) Data Engineer Analytic capable de jouer un rôle central entre les équipes data engineering, revenu management, marketing et distribution. Le/la candidat(e) sera point de coordination clé, garantissant la fluidité des échanges et la bonne exécution des projets analytiques tout en accompagnant l’équipe technique. Missions principales • Coordination et interface entre les équipes Data Engineering, métiers (Revenue Management, Marketing, Distribution) et votre N+1. • Analyse de l’environnement data et des pipelines existants pour identifier les améliorations et opportunités. • Accompagnement de 2 Data Engineer pour l’exécution technique rapide et efficace sur les sujets prioritaires. • Recueil et formalisation des besoins métiers, transformation en spécifications techniques pour l’équipe data. • Développement et optimisation de modèles DBT, requêtes Snowflake et tableaux de bord Tableau. • Rôle d’ambassadeur produit : vulgariser et promouvoir les solutions data auprès des équipes métiers, assurer l’adoption et la montée en compétences. • Communication claire et régulière avec les équipes métiers et techniques pour assurer un suivi efficace des projets, donc un profil capable d’aller vers les autres de manière agile, plutôt que de se limiter à une productivité dans des environnements très cloisonnés. Environnement technique • DBT pour la modélisation et la transformation des données • Snowflake pour l’entrepôt de données • Tableau pour la visualisation et reporting • SQL
Offre premium
Mission freelance
Chef de Projet Réseau (H/F)
Publiée le
Gestion de projet
Réseaux
6 mois
400-500 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Nous recherchons pour notre client basé à Marseille un Chef de Projet (CDP) spécialisé en réseaux pour une mission de 6 mois à temps partiel (2j consécutifs / semaine) Missions principales Réaliser et analyser des mesures de réflectométrie Paramétrer et remplacer des switches fabric ou non-fabric de la gamme Extreme Networks (modèles ISW 3626, 4950, 5420, etc.) Effectuer des modifications de configuration réseau Intégrer des switches dans la fabric GPMM (solution VOSS) Utiliser le logiciel ExtremeCloud IQ (XIQ) pour la gestion réseau (Optionnel) Connaissance du logiciel Centreon pour la supervision serait un plus
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Eligibilité ACRE - carence ARE
- Micro-entreprise après EURL ?
- Notification ARE
- Appeler +33 7 56 92 74 16 Numéro de maître medium voyant sérieux honnête très puissant : Voyance - Retour affectif - travaux occultes - magie puissante
- LE PACTE AVEC MAMI WATA - APPRLER LE +33 7 56 92 74 16 - Rituel et cérémonie de la reine des eaux pour l'amour, l'évolution des entreprises et pour la richesse et la protection
- deduction loyer et contrat de mise à disposition
5916 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois