Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 595 résultats.
CDI
Freelance

Offre d'emploi
Consultant(e)Chef de projet DATA F/H-Niort

Publiée le
Business Object
Dataiku
ETL (Extract-transform-load)

120 ans
40k-50k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un(e) Consultant(e) Chef de projet Data (F/H)pour notre cabinet à Niort🚀 En tant que Consultant(e) chef de projet Data (F/H), vous interviendrez : Chez les clients, selon le cadre et les objectifs définis afin de: piloter l'activité DATA Manager les équipes opérationnellement Contribuer aux estimations fournies par les équipes en vue du s’assurer de la faisabilité dans le budget accordé ou demandé, Construire le planning prévisionnel, accompagner les équipes dans la conception Etre garant des livrables et s’assurer que la solution proposée corresponde aux contraintes de l’organisation (technologiques, sécurité, …), Accompagner les PO dans l'aide à la relation métier Coordonner les équipes projet ainsi que les acteurs externes en vue d’atteindre les engagements (vérification de l’allocation des tâches en fonction des ressources), Construire ses indicateurs et tableaux de bords afin d’assurer le pilotage efficace de son projet, Assurer la visibilité au travers des comitologies projet (animation des comités projets COPIL, COPROJ, Steering Committee, etc …). Mener des TASK FORCE en cas d'incidents Au sein du cabinet : Contribuer au développement du cabinet (développement commercial, optimisation des processus internes, formation et mentorat), Participer à des projets internes relatifs à nos activités évènements, QVT, RSE… Mener et réaliser des projets associatifs (Mécénat auprès de nos associations partenaires). 🚀 L’aventure Argain, c’est : Un suivi et un accompagnement au quotidien par un trinôme (business manager, référent métier, référente RH), Un processus d’intégration personnalisé (individuel puis collectif), Des formations certifiantes (au minimum 1 formation tous les deux ans), De nombreux évènements : 2 évènements au minimum par mois (afterwork, soirée cuisine, cours de sport, karaoké), La possibilité d’évoluer en interne (rôle d’ambassadeur, key account leader, consultant manager), Un variable attractif et déplafonné (prime de cooptation, d’ouverture de compte, d’apport d’affaire), Un package (prime vacances, prime d’intéressement, avantages CSE, RTT, prise en charge de 60% des tickets restaurant). Si vous souhaitez savoir ce que nos argainers pensent de nous :
Freelance
CDI

Offre d'emploi
Data Scientist

Publiée le
Google Cloud Platform (GCP)
Machine Learning

1 an
40k-45k €
400-620 €
Île-de-France, France
Télétravail partiel
Contexte La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. Elle a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateur, mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Afin d'améliorer la personnalisation de l'expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d'un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur une plateforme cloud majeure et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l'orchestration des traitements. La stack inclut aussi d'autres services de la plateforme cloud. Missions de l'équipe Créer les premiers cas d'usage en lien avec la personnalisation de l'expérience utilisateur basés sur de la recommandation utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances Prestations attendues En interaction avec les membres de l'équipe, la prestation consistera à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l'exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l'évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l'équipe
Freelance

Mission freelance
Développeur Powell / SharePoint Online

Publiée le
Power Platform
React
SharePoint Online

3 ans
Île-de-France, France
Télétravail partiel
🔍 Nous recherchons un Développeur Expert Powell dans le cadre du développement de l'intranet communication pour un grand groupe Parisien. 🎯 Vos missions principales : ✅ Conseil & expertise sur SharePoint Online et Powell ✅ Réalisation d’études techniques & recommandations d’architecture ✅ Développement de WebParts SPFx en React.js ✅ Développements spécifiques SharePoint & Powell ✅ Paramétrage avancé des plateformes collaboratives ✅ Contribution aux projets en méthodologie Agile ✅ Rédaction de documentation technique & bonnes pratiques ✨ Soft skills : • Rigueur & fiabilité • Excellente communication écrite et orale • Respect des engagements & sens du service 📬 Pour postuler : 📩 Ou directement en MP sur LinkedIn ! ¡Hasta pronto! 🚀
Freelance

Mission freelance
[SCH] Data Engineer – Confirmé - 1162

Publiée le

10 mois
385-418 €
Niort, Nouvelle-Aquitaine
Contexte de la mission : Mon client recherche un Data Engineer confirmé pour intervenir sur des activités d’analyse, de spécification, de développement, de test et de maintenance au sein d’un environnement Data. Missions : -Analyser les besoins et spécifier les solutions Data -Développer les traitements et flux de données -Réaliser les tests -Assurer la maintenance des développements existants Environnement technique : -Outils de développement : PowerCenter (Informatica), SQL Developer, DbVisualizer -Langages : SQL, PL/SQL -SGBD : Oracle, Hive -Méthodologie : SAFE Profil recherché : Data Engineer confirmé (3 à 8 ans) disposant d’une expérience significative sur des environnements Data, avec une forte maîtrise des outils ETL, des bases de données et des langages SQL / PL-SQL.
Freelance

Mission freelance
DATA Analyst SIG - GPS

Publiée le
Data analysis
SIG (Systèmes d'Information Géographique)

12 mois
550-580 €
Paris, France
Télétravail 100%
En quelques mots Cherry Pick est à la recherche d'un "DATA Analyst SIG - GPS" pour un client dans le secteur Public Description Data Analyst SIG – Expert Données GPS & Mobilité (H/F) Technologie clé : Databricks / Python / SQL Spatial Niveau : Expérimenté / Confirmé 🌐 Le Contexte Nous recherchons pour notre client, acteur majeur dans le secteur de la Mobilité/Logistique , un Data Analyst confirmé possédant une expertise pointue en Géomatique (SIG) . Vous rejoignez une équipe Data où la dimension spatiale est critique. Votre rôle ne sera pas simplement d'analyser des chiffres, mais de faire "parler" des millions de points GPS bruts pour reconstituer des parcours, optimiser des tournées et comprendre la réalité terrain des déplacements. 🎯 Votre Mission : Dompter la donnée GPS Vous êtes le référent sur le traitement et la valorisation des données de géolocalisation. Vous transformez une donnée brute, souvent bruitée, en informations métier fiables (arrêts, trajets, adresses). Vos défis techniques & fonctionnels : Qualité & Nettoyage de la donnée GPS : Détection et correction des points aberrants (outliers). Traitement du bruit GPS et lissage des trajectoires. Map Matching & Rapprochement Voirie : Projeter les points GPS bruts sur le filaire de voirie (snapping) pour reconstituer le trajet réel emprunté. Gérer les cas complexes (tunnels, zones urbaines denses, "canyons urbains"). Analyse des Arrêts & Adresses : Identifier les arrêts logistiques vs les arrêts de circulation (feux, bouchons). Réconcilier les positions d'arrêt avec les adresses distribuées (Geocoding / Reverse Geocoding précis). Détecter les changements de moyens de locomotion (multimodalité). Analyse Comportementale & Temporelle : Comparer les parcours réalisés entre différentes journées (analyse de régularité, détection d'anomalies de parcours). Calculer des indicateurs de performance spatiaux (ETA, temps de trajet réel vs théorique).
Freelance

Mission freelance
Architecte Data IoT

Publiée le
Apache Kafka
Architecture
IoT

12 mois
730-750 €
Lille, Hauts-de-France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Architecte Data IoT" pour un client dans le secteur du retail. Description La Data est centrale dans notre écosystème IoT : elle alimente la BI, la maintenance prédictive, la détection d'accidents et la conception intelligente de nos futurs produits. 🎯 Votre Mission : Architecturer la Data de l'IoT du Groupe Au sein de l'équipe "Cloud IoT Platform - Data Solution", vous agissez en tant que Data Architect / Lead Engineer . Vous êtes le garant des choix techniques et de l'architecture permettant d'ingérer, stocker et exposer les données venant du Cloud, des "Devices" et du Mobile. Vos responsabilités clés : Architecture & Stratégie : Imaginer et concevoir l'architecture Data pour collecter les données IoT (directement des appareils ou via mobile). Définir la stratégie des stacks techniques et garantir les standards d'architecture. Assurer l'alignement entre la vision technique, les priorités business et les besoins utilisateurs. Engineering & Pipelines : Construire des pipelines de données (structurées et non structurées) robustes et scalables. Maintenir et redesigner les pipelines existants pour servir de nouveaux cas d'usage (Analytics, IA, etc.). Garantir l'industrialisation des processus de transformation et le CI/CD. Qualité & Gouvernance : Assurer la scalabilité, l'élasticité et la fiabilité des infrastructures. Garantir la qualité de la donnée, son accessibilité, ainsi que le respect des normes de Privacy et Data Governance (Lineage). Leadership Technique : Contribuer activement à la communauté des Data Engineers. Assurer une veille technologique constante pour orienter la sélection des nouveaux outils. 🛠 Environnement Technique Langages : Python, Scala, Java. Big Data & Streaming : Kafka, Spark. Cloud & Infrastructure : AWS (Lambda, Redshift, S3), Microservices. Concepts : Systèmes distribués, Data Modeling, Real-time data exchanges.
Freelance

Mission freelance
Consultant Master Data SAP (Migration ECC → S/4HANA) (H/F)

Publiée le
SAP ECC6

6 mois
400-550 €
Bourges, Centre-Val de Loire
Télétravail partiel
Nationalité : Française obligatoire Mobilité : 2×3 jours/mois à Bourges , Le reste en IDF / Le Plessis-Robinson Langues : Anglais professionnel TJM max : 550€ Démarrage : ASAP DESCRIPTIF DE LA MISSION – Consultant Master Data SAP (Migration ECC → S/4HANA) 🎯 Informations générales Localisation : 2×3 jours par mois sur site à Bourges , le reste en Île-de-France (Le Plessis-Robinson / IDF). Démarrage : ASAP Nationalité : Française obligatoire Durée : 6 mois (renouvelables) Rythme : 3 jours sur site / 2 jours télétravail TJM max : 550 € Langue : Anglais professionnel 🧭 Contexte de la mission Dans le cadre du projet de migration du système d'information SAP , le client recherche un Consultant Master Data SAP pour accompagner la transition complète des données ECC → S/4HANA . La mission inclut toutes les activités de préparation, nettoyage, transformation et migration des données , avec un focus particulier sur : les Master Data Manufacturing (articles, BOM, gammes, objets techniques), les Business Partners , les données qualité et traçabilité , ainsi que l’utilisation intensive des outils LSMW , Mass Update et outils de Data Cleansing . Le consultant travaillera au quotidien avec les SMEs (experts métier), les équipes IT et les coordinateurs SAP pour garantir la fiabilité , la qualité et la complétude des données migrées. 🛠️ Rôle & Responsabilités 🔹 Migration ECC → S/4 Préparer, transformer et charger les données dans le cadre de la migration. Utiliser les outils de migration : LSMW , Mass Update , scripts, templates. Exécuter des reprises de données complexes. 🔹 Data Cleansing / Data Quality Utiliser CleanScene / CleanseIT pour le nettoyage des données. Identifier les incohérences, doublons, champs manquants, formats non conformes. Suivre la résolution des anomalies avec les métiers. 🔹 Gestion des Master Data Manufacturing Le consultant interviendra sur l’ensemble des objets MDM industriels, notamment : Articles / Matériaux Objets techniques Gammes Nomenclatures (BOM) Données PP / PPDS / Ordres de production Besoin indépendants Business Partners, clients, fournisseurs Données Qualité & Traçabilité 🔹 Coordination & documentation Participer à la rédaction et l’ajustement des FSD (sans en assurer la validation). Solliciter les métiers (SME) pour la validation des règles fonctionnelles. Contribuer à la préparation des phases de test (UAT) et de bascule finale . 🔹 Production de reporting technique Le consultant devra produire du reporting opérationnel pour les métiers : Power BI SQ01 / SQ02 (reports SAP) CDS Views exploitées sous Fiori SAP Analysis for Office (AFO / DAEM) 🧩 Profil recherché 🎓 Compétences indispensables Expérience concrète sur projets SAP ECC / S/4HANA . Très bonne maîtrise des outils de migration : LSMW , Mass Update , Data Cleansing (CleanScene / CleanseIT). Connaissance approfondie des Master Data Manufacturing. Aisance confirmée sur les objets PP / PPDS / PO. Expérience en création de reporting SAP (Power BI, SQ01/02, CDS Views, AFO). Habitude de travailler avec SMEs, IT, intégrateur SAP. Anglais professionnel. 🌟 Soft Skills Rigueur & précision Forte capacité d’analyse Communication transverse Capacité à challenger les règles métier Autonomie et proactivité ⭐ Compétences clés Master Data ECC / S4 – Manufacturing & Quality LSMW / Mass Update / Migration Cockpit CleanScene / CleanseIT Gammes, BOM, objets techniques PP / PPDS / PO Power BI, SQ01/SQ02, CDS Views, AFO Interaction métier / coordination SME / IT
Freelance
CDI

Offre d'emploi
Data Engineer

Publiée le
Dataiku
Microsoft Power BI
PySpark

1 an
40k-45k €
400-690 €
Paris, France
Télétravail partiel
Contexte du Projet Une organisation leader en solutions de financement est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Il se concentre sur la phase d'exploration des données liées au reporting réglementaire, avec un périmètre limité aux données critiques, provenant de diverses sources. L'objectif est de garantir un accès optimisé et une gouvernance renforcée pour les Data Quality Analysts (DQA). Conception et implémentation des pipelines de données Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. Suivre avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. Industrialisation et automatisation des flux de données et des traitements Mettre en place des processus d'industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l'exploration à la production, en intégrant les modèles dans des pipelines automatisés. Gestion des données et optimisation des performances Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d'architecture de stockage (raw, refined, trusted layers). Assurer la surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l'intégrité des jeux de données. Sécurité et gouvernance des données Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. Travailler en collaboration avec le Data Office pour assurer l'alignement avec les politiques et processus définis. Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées.
Freelance
CDI

Offre d'emploi
Chef de projet Data IA (7 ans et plus)

Publiée le
Confluence
IA Générative
JIRA

3 ans
40k-65k €
450-600 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Data & IA et chef de projet, mission de caderage et conduite des projets d'intégration de l'intelligence artificielle (IA) et d'analyse de données pour améliorer les processus métiers et les performances de l'entreprise. Investiguation, description et analyse des processus existants pour identifier les opportunités d'amélioration et de mise en œuvre de l'IA. 💡 La mission Consiste à : 1. Investigation et analyse des processus : Étudie et compréhension des processus métiers existants, identifier les opportunités d'amélioration et de mise en œuvre de l'IA. 2. Analyse quantitative : Réalisation des analyses quantitatives pour évaluer les opportunités d'amélioration, en utilisant des données telles que les parcours clients, les données d'utilisation, etc. 3. Collaboration avec les data scientists : Travail avec les data scientists, étude, proposition et test des solutions internes ou externes pour améliorer les processus métiers. 4. Definir la vision et de la stratégie : Collaboration avec les experts métiers, les product owners, les développeurs et les data scientists pour définir la vision, la stratégie et l'approche de validation des projets (notamment l’approche de testings et les metrics associées). 5. Gestion de projet : Bonne traduction des besoins dans une roadmap claire, réaliste et acceptée par toutes les parties prenantes, et animation du projet pour garantir la qualité, les délais et les coûts. 6. Coordination et synergie : Coordination et la synergie entre les différents projets et les différentes équipes, en favorisant les échanges, les retours d'expérience et les bonnes pratiques
Freelance

Mission freelance
DATA DESIGNER H/F/NB

Publiée le
Agile Scrum
Gouvernance
Modélisation

120 jours
400-500 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Un acteur majeur de l'écosystème français recherche son futur Data Designer pour rejoindre une équipe d'experts passionnés par l'innovation et la transformation digitale. Rejoignez le Shared Service Data Office et devenez l'architecte de demain ! Vous interviendrez comme System Architect au cœur des trains SAFe, collaborant avec des architectes technique et fonctionnel pour façonner l'avenir data de l'organisation. 🎨 Vos Créations : ✨ Architecte de l'impossible - Participez à la construction d'une architecture Datacentric révolutionnaire 🧠 Sculpteur de données - Enrichissez et modélisez le patrimoine informationnel de l'entreprise 🔮 Créateur d'ontologies - Définissez les langages de demain pour structurer la connaissance ⚡ Facilitateur agile - Accompagnez les équipes dans la création de solutions innovantes
Freelance

Mission freelance
Senior Data Scientist

Publiée le
ADFS
Analyse financière
Azure

6 mois
550-650 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Dans le cadre du remplacement d’un consultant senior sortant, tu rejoindras l’équipe Pricing & Revenue Management afin d’assurer la continuité, l’évolution et la fiabilisation des modèles algorithmiques stratégiques. Ton rôle sera clé pour concevoir, développer et optimiser des modèles avancés de pricing et de revenue management, permettant de prévoir, indexer et optimiser les contrats clients dans un contexte business à forts enjeux. 🧠 Missions principales 1. Développement & optimisation de modèles Concevoir et développer des modèles avancés de pricing (indexation, forecasting, optimisation des revenus). Améliorer la performance des algorithmes existants (précision, vitesse, robustesse, explicabilité). Construire de nouveaux modèles data-driven liés au revenue management (élasticité, stratégie tarifaire, scénarios). 2. Engineering & Data Pipeline Développer, maintenir et optimiser des pipelines dans Azure Data Factory & Azure Databricks . Manipuler, transformer et structurer des données dans un environnement big data. Intégrer et orchestrer les données via Azure Lakehouse / ADLS . (Bonus) Utiliser PySpark pour gérer des volumes de données importants. 3. Collaboration & Interaction Business Travailler en étroite collaboration avec les équipes Pricing, Finance et Opérations. Comprendre les besoins business et les traduire en modèles statistiques exploitables. Documenter, présenter et vulgariser les résultats auprès des équipes métier. Garantir une forte réactivité et la fiabilité des livrables compte tenu des enjeux stratégiques. 🛠️ Stack technique Python : indispensable (modélisation, data processing, industrialisation). Azure Cloud : Databricks, ADF, ADLS / Lakehouse. PySpark : apprécié. Méthodes & domain expertise : Pricing algorithmique Revenue management Forecasting (séries temporelles, modèles ML) Optimisation (linéaire, stochastique, contraintes)
CDI

Offre d'emploi
Data Architecte - Lyon

Publiée le
AWS Cloud
Azure
Databricks

60k-70k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance

Mission freelance
Ingénieur Test et Validation Cloud / Data maitrisant Snowflake (H/F)

Publiée le
Snowflake

12 mois
380-420 €
La Ciotat, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur(e) Test et Validation Cloud & Data pour intervenir chez un de nos clients dans le secteur industriel sur La Ciotat Contexte : Pour renforcer l’équipe, nous recherchons un(e) Ingénieur(e) Test et Validation Cloud & Data capable de sécuriser les fonctionnalités et les flux de données, de la conception jusqu’à la production. Vos principales missions : - Vous concevez, planifiez et exécutez les campagnes de validation et de vérification tout au long des itérations. - Vous développez et faites évoluer des tests automatisés adaptés à des volumes de données importants. - Vous mettez en place des scénarios de test pour vérifier la qualité, la cohérence et l’intégrité des données, y compris en production. - Vous analysez les résultats, identifiez les anomalies, les qualifiez et les remontez de manière structurée. - Vous travaillez en étroite collaboration avec les équipes développement, produit et exploitation pour optimiser la couverture de tests. - Vous utilisez des outils d’investigation et de monitoring pour comprendre le comportement du système en conditions réelles. ⚙ Environnement technique du projet : - Maitrise indispensable de Snowflake - Tests unitaires et fonctionnels avec Mocha et Cypress - Bonnes connaissances Cloud AWS, voire Azure ou GCP
Freelance

Mission freelance
Profil Data hybride / Alteryx / Power BI

Publiée le
Alteryx
Google Cloud Platform (GCP)
Microsoft Power BI

3 ans
400-500 €
Montpellier, Occitanie
Télétravail partiel
Pour l’un de nos clients grand compte, nous recherchons un Profil Data hybride ALTERYX / Power BI capable à la fois de challenger les métiers fonctionnellement (recueil et reformulation du besoin, rédaction de specs, validation) et d’assurer une partie technique / développement (ETL, requêtage, reporting). Être l’interface entre les utilisateurs métiers et l’équipe technique, traduire les besoins en spécifications exploitables, concevoir et développer les traitements et livrables data (ETL, requêtes, tableaux de bord), assurer la qualité et la maintenabilité des livrables. Responsabilités Recueillir, clarifier et challenger les besoins métiers ; réécrire et structurer les demandes pour les rendre exploitables. Rédiger les spécifications fonctionnelles et techniques (US, critères d’acceptation). Concevoir et développer des flux ETL / transformations avec Alteryx . Modéliser, optimiser et maintenir des requêtes et procédures sur Oracle (SQL / PL/SQL). Développer et publier des Dashboard Power BI (modèles tabulaires, DAX, performance). Développer des applications simples ou prototypes avec PowerApps (souhaité).
Freelance
CDI
CDD

Offre d'emploi
Expert Kubernetes / Anthos Projet Cloud & Edge Computing-ile de France (H/F)

Publiée le
Agile Scrum
Ansible
Cloud

1 an
Île-de-France, France
Contexte du besoin Dans le cadre d’un projet stratégique de mise en place d’un Cloud hybride basé sur Anthos / Kubernetes , nous recherchons une expertise senior afin d’accompagner le déploiement, l’industrialisation et le support de la plateforme sur des infrastructures Edge. Mission L’expert interviendra au sein d’une équipe Cloud en méthodologie Agile, et sera responsable de : La mise en œuvre d’Anthos / Kubernetes sur des infrastructures Edge Computing hybrides (cloud public + infrastructures locales). Le déploiement complet des environnements , du développement jusqu’à la production. La mise en place de l’automatisation via Ansible et Terraform . La rédaction des documentations techniques et la montée en compétences des équipes infrastructure. Le support opérationnel de la solution en production. L’ accompagnement des équipes projets sur les bonnes pratiques Kubernetes / Anthos. Livrables Environnements déployés (dev → prod) Services automatisés et monitorés Documentation technique complète Compétences & Expertise recherchées +5 ans d’expérience confirmée en Kubernetes , Anthos , et environnements Cloud / DevOps . Très bonne maîtrise de Google Anthos . Excellente connaissance de Terraform et Ansible . Bon niveau sur les outils CI/CD ( GitLab CI ). Compétences solides en virtualisation , Linux et scripting . Connaissance des méthodes Agile (Scrum) . Anglais professionnel dans un contexte international.
Freelance

Mission freelance
Chef de projet Data et IA

Publiée le
Data management
IA
IA Générative

6 mois
400-500 €
Île-de-France, France
Télétravail partiel
Pour le compte de notre client qui opère dans le secteur bancaire , nous recrutons chef de projet Data et IA (h/f). L'objectif de la prestation est de renforcer l’équipe des chefs de projet du DataLab Groupe pour traiter les projets Data / IA / IA GEN confiés à la Direction Data & IA. Indispensable : Expérience confirmée , des interventions récentes en pilotage de projets Data + IA (non seulement en data) JavaScript / TypeScript Envoyez vos candidatures via la plateforme ou à l'adresse mail Besoin n'est pas ouvert à la sous-traitance.
2595 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous