L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 711 résultats.
Offre d'emploi
Data Analyst Vannes (H/F)
TimTek
Publiée le
Microstrategy
PowerBI
1 an
Vannes, Bretagne
TimTek est une entreprise à mi-chemin entre l'incubateur et l'ESN, dont les objectifs sont multiples. Tout d'abord, nous développons une activité de prestation intellectuelle dans le domaine IT autour de 4 sujets : Développement : Java, PHP, C#, Javascript et tous leurs frameworks. Infrastructure : Cloud, Devops, Architecture, Administration systèmes et réseaux. Data : Business Intelligence, Data Science, Big Data, Data Analysis, Data Engineering. Fonctionnel : Gestion de projet, Consultant fonctionnel Dans un second temps, nous réinvestissons l'ensemble des bénéfices afin d'autofinancer le lancement de projets digitaux innovants qui ont un rapport avec la RSE (intérêt général, écologie ou autre). Ainsi, nous rassemblons aujourd'hui une communauté de 50 consultants entreprenants et notre objectif est de continuer cette croissance en vous présentant des projets de qualité. Aujourd'hui, nous sommes à la recherche d’un Développeur Data Analyst (H/F) pour intégrer notre équipe de Vannes. Vos missions seront de : Collaborer étroitement avec les Business Analystes afin d’identifier les besoins Data du métier grâce à des ateliers d’affinage Collecter et exploiter les données pour les restituer sous forme d’indicateurs ou de Tableaux de bord, et ainsi contribuer et conduire les analyses Data mises en lien avec les problématiques métiers Présenter les résultats aux équipes métiers Véhiculer auprès des métiers le cadre de gouvernance Data (Data Management, Data Privacy…) de l’entreprise, en portant les messages et expertises autour du Digital Contribuer à l’évolution des pratiques de l'équipe dans une logique d’amélioration continue
Offre d'emploi
Tech Lead Data Engineer - Databricks / AWS
VISIAN
Publiée le
Apache Airflow
API
AWS Cloud
3 ans
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Mission freelance
Data engineer GCP
ESENCA
Publiée le
Apache Kafka
CI/CD
ETL (Extract-transform-load)
1 an
400-440 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement et de l’évolution d’une plateforme de data analytics , nous recherchons un Data Engineer afin de participer à la conception, au développement et à la maintenance des solutions data. Au sein d’une équipe agile, vous contribuerez à la mise en place et à l’amélioration des pipelines de données, à la structuration des modèles analytiques et à l’optimisation des solutions existantes. Vous participerez également à la construction et à l’évolution de la plateforme data sur un environnement cloud moderne. Présence sur site requise 3 jours par semaine . Vos missions Participer aux rituels agiles de l’équipe (daily, sprint planning, rétrospectives). Analyser les besoins métiers et proposer des solutions data adaptées et innovantes . Concevoir et développer les pipelines de données : ingestion, transformation, stockage et restitution. Modéliser les données et contribuer à la construction des modèles analytiques . Assurer la qualité et la fiabilité des développements data . Maintenir et faire évoluer les solutions existantes (run et optimisation). Participer à la construction et à l’amélioration de la plateforme data sur Google Cloud . Contribuer à la diffusion des bonnes pratiques d’exploitation et de valorisation de la data auprès des équipes métiers. Compétences techniques requises SQL et ETL (expert – impératif). Outils et pratiques CI/CD . GitHub, Terraform, Kafka (confirmé – important). Outils de data visualisation : Power BI, Looker (confirmé – important). Environnement Google Cloud Platform (GCS, BigQuery) – souhaitable.
Mission freelance
Data Scientist Python, Tensorflow Nantes/st
WorldWide People
Publiée le
Python
12 mois
350-370 €
Nantes, Pays de la Loire
Data Scientist Python, Tensorflow Nantes Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques. Prestation de Data Scientist Objectif : •Transformer des données brutes en informations exploitables grâce à des modèles statistiques avancés, des algorithmes de machine learning et des analyses prédictives. •Exploiter, analyser et évaluer la richesse de données, structurées ou non, pour établir des scénarios permettant de comprendre et anticiper de futurs leviers métiers ou opérationnels pour l’entreprise. •Identifier des tendances ou des corrélations cachées dans les données. •Créer des modèles prédictifs ou des solutions automatisées basées sur des algorithmes. •Aider à prendre des décisions stratégiques basées sur les données. Tâches : •Valorise les gisements de données. •Travaille sur des périmètres métiers ciblés (cas d’usage) pour explorer et exploiter des flux de données issus de la data platform ou d’autres sources (dans ce cas il évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du métier). •Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les données à consolider, modifier, rapatrier, externaliser, internaliser. •Intervient de façon plus intégrée en industrialisant ses réalisations dans la chaine technologique de la data platform et/ou les intègre dans le système d’information du métier. •Conçoit des modèles statistiques et/ou d’apprentissage automatisé. •Compare et évalue différents modèles ou méthodes de calcul et anticipe les avantages et inconvénients dans un environnement métier. •Assure la veille en recherche & innovation pour introduire de nouvelles approches d’analyse et de modélisation des données. Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques.
Mission freelance
Data Architect (Le Mans)
STHREE SAS pour COMPUTER FUTURES
Publiée le
Architecture
6 mois
400-550 €
Le Mans, Pays de la Loire
L'architecte de domaine a pour missions principales - d'être l'interlocuteur architecte auprès de son domaine, pour accompagner la transformation de son domaine - accompagner les projets portés par le domaine, dans les phases étude de faisabilité pour proposer les scénarios IT - contribuer à la connaissance du domaine , sur la modélisation / cartographie du domaine, et s'assurer de la qualité des référentiels. Dans le cadre des accompagnements EF/Projets, l'architecte doit travailler sur la modélisation sur les différents plan d'architecture : métier, fonctionnel, applicatifs et techniques, doit rédiger des dossiers d'architecture pour éclairer les choix, présenter les dossiers dans des comités, et décliner l'architecture en phase projet en lien avec les différentes parties prenantes, domaines, sécurité, intégration en production. Dans le cadre de son rôle vis à vis des domaines sur lesquels il intervient, il devra produire les cartographies de son domaine sur les différents plans architecture et assurer la qualité de la documentation dans les différents référentiels entreprises, la connaissance des différents domaines de l'assurance et des métiers supports (finances, comptabilité, conformité ...) seraient donc un plus. Connaissance cadre d'architecture TOGAF, qualité rédactionnelle et de synthèse pour la rédaction des dossiers d'architecture, Capacité à travailler en collaboratif, Qualité pour présentation des dossiers Cette demande concerne le domaine Cette demande concerne le domaine DATA. Des connaissances de la Gouvernance Data et des architectures Data sont demandés : Data Product, Hub de données, SID, API, EDA....
Offre d'emploi
Consultant.e Data Talend F/H
ADDIXWARE
Publiée le
Qlik
Talend
1 an
39k-43k €
370-410 €
Avignon, Provence-Alpes-Côte d'Azur
Nous recherchons un Consultant Talend expérimenté pour accompagner nos clients dans leurs projets Data : intégration, transformation, qualité et gouvernance des données. Vos missions : - Développer et maintenir des flux d'intégration de données via Talend - Participer aux projets de gouvernance data, de la conception à la mise en production - Intervenir sur la visualisation et le pilotage des données (compétences Qlik appréciées) - Analyser les besoins métiers et proposer des solutions fiables et performantes - Assurer le support, la documentation et la qualité des livrables - Accompagner les équipes internes et favoriser la montée en maturité data
Offre d'emploi
Data Analyst Paris (H/F)
TimTek
Publiée le
Microstrategy
PowerBI
1 an
Paris, France
TimTek est une entreprise à mi-chemin entre l'incubateur et l'ESN, dont les objectifs sont multiples. Tout d'abord, nous développons une activité de prestation intellectuelle dans le domaine IT autour de 4 sujets : Développement : Java, PHP, C#, Javascript et tous leurs frameworks. Infrastructure : Cloud, Devops, Architecture, Administration systèmes et réseaux. Data : Business Intelligence, Data Science, Big Data, Data Analysis, Data Engineering. Fonctionnel : Gestion de projet, Consultant fonctionnel Dans un second temps, nous réinvestissons l'ensemble des bénéfices afin d'autofinancer le lancement de projets digitaux innovants qui ont un rapport avec la RSE (intérêt général, écologie ou autre). Ainsi, nous rassemblons aujourd'hui une communauté de 50 consultants entreprenants et notre objectif est de continuer cette croissance en vous présentant des projets de qualité. Aujourd'hui, nous sommes à la recherche d’un Développeur Data Analyst (H/F) pour intégrer notre équipe de Paris. Vos missions seront de : Collaborer étroitement avec les Business Analystes afin d’identifier les besoins Data du métier grâce à des ateliers d’affinage Collecter et exploiter les données pour les restituer sous forme d’indicateurs ou de Tableaux de bord, et ainsi contribuer et conduire les analyses Data mises en lien avec les problématiques métiers Présenter les résultats aux équipes métiers Véhiculer auprès des métiers le cadre de gouvernance Data (Data Management, Data Privacy…) de l’entreprise, en portant les messages et expertises autour du Digital Contribuer à l’évolution des pratiques de l'équipe dans une logique d’amélioration continue
Offre d'emploi
Architecte Data Azure
KLETA
Publiée le
Azure
Databricks
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Azure pour définir et piloter l’évolution des plateformes de données cloud natives sur Microsoft Azure. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies Azure tels que Azure Data Lake, Azure Databricks, Azure Synapse, Azure Data Factory et Event Hubs, ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur Azure.
Offre d'emploi
Consultant Data Scientist H/F
█ █ █ █ █ █ █
Publiée le
Python
SQL
35k-55k €
69001, Lyon, Auvergne-Rhône-Alpes
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Consultant Data Snowflake
AGH CONSULTING
Publiée le
Qlik
Snowflake
6 mois
38k-45k €
280-400 €
Île-de-France, France
Dans le cadre de projets Data chez l’un de nos clients grands comptes, nous recherchons des consultants Data orientés Qlik disposant d’un vernis sur Snowflake, pour renforcer des équipes BI/Data existantes. Missions principales ▪ Concevoir, développer et maintenir des tableaux de bord sous Qlik Sense / QlikView ▪ Analyser les besoins métiers et les traduire en solutions BI pertinentes ▪ Exploiter des données issues de Snowflake (requêtes, compréhension du modèle, optimisation basique) ▪ Participer à l’amélioration des modèles de données et des performances des reportings ▪ Collaborer avec les équipes Data (BI, Data Engineers, métiers) Environnement technique ▪ BI / Data Viz : Qlik Sense / QlikView ▪ Data Warehouse : Snowflake (niveau compréhension / usage) ▪ Langages & outils : SQL, notions ETL, environnements Data modernes ▪ Méthodologie : projets BI, travail en équipe agile ou hybride
Mission freelance
Data Architect - Lyon
Sapiens Group
Publiée le
Hadoop
Microsoft Power BI
MySQL
1 an
500-530 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du choix et de la mise en place de la nouvelle plateforme Data régime, le profil interviendra pour définir, concevoir et accompagner la construction de l'architecture cible Data de la fédération. Ses missions principales seront de : Définir l'architecture cible Data : concevoir l'architecture Data cible de la fédération, alignée avec la stratégie globale Data et les principes Data-Centric et définir les patterns d'intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). Concevoir l'architecture de la nouvelle plateforme Data : concevoir l'architecture technique globale de la plateforme, en intégrant l'écosystème existant (Teradata, Hadoop) et la stratégie d'évolution (cloud ou on-prem, gouvernance, scalabilité). Proposer la trajectoire d'évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d'intégration et l'architecture cible. Définition et formalisation des standards Data : définir les standards d'intégration, de transformation, de stockage et d'exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l'écosystème (outils d'ingestion, qualité, orchestrateurs, catalogage, gouvernance).
Offre d'emploi
Business Analyst Assurance IARD - NIORT (H/F)
STORM GROUP
Publiée le
Méthode Agile
3 ans
48k-54k €
450-480 €
Niort, Nouvelle-Aquitaine
La mission sera de : - intervenir dans les études d’avant-projet (contribue aux Etude d’Opportunité, porte les Etudes de Faisabilité) dans le respect de la gouvernance mise en place - apporter le conseil SI sur les évolutions nécessaires au projet et de garantir son delivery - intervenir dans les projets et maintenance évolutive pour échanger avec les interlocuteurs métier pour comprendre les besoins exprimés, formaliser les US et/ou spécifications fonctionnelles, concevoir les stratégies de Test et contribuer à la qualification - être en support des équipes solution dans le traitement des incidents
Mission freelance
Développeur Talend Confirmé – Data Engineer (H/F)
Pickmeup
Publiée le
ETL (Extract-transform-load)
Talend
1 an
400-480 €
Châtillon, Île-de-France
La mission consiste à développer de nouveaux pipelines d’intégration applicative et à assurer le maintien en condition opérationnelle des pipelines existants au sein de la plateforme Data. Missions principalesDéveloppement et intégration de données Développer et maintenir des pipelines d’intégration de données Mettre en œuvre les nouveaux besoins métiers : modélisation paramétrage développement tests Intégrer et transformer des données provenant de sources multiples Garantir la qualité et la fiabilité des flux de données Maintien en condition opérationnelle Assurer le support et la maintenance des pipelines existants Superviser les flux de données et corriger les anomalies Contribuer à la stabilité et à la performance des plateformes Gouvernance et bonnes pratiques Contribuer à la gouvernance des plateformes Data Veiller au respect des processus, normes et standards Participer à la définition et à l’amélioration des bonnes pratiques : développement architecture gestion de configuration Collaboration projet Accompagner les équipes projets (SI, Data, métiers) Participer aux échanges techniques et au partage de bonnes pratiques au sein de l’équipe Responsabilités Data Engineering Cartographier et documenter les sources de données Concevoir des solutions permettant de traiter des volumes importants de données Structurer et organiser les bases de données Contribuer à la gestion des référentiels de données Vérifier la qualité et la cohérence des données Participer aux évolutions de la plateforme Data / Data Lake Livrables attendus Développements et projets Talend Documentation technique des développements Dossiers d’architecture ou cadres techniques Cartographie des flux et des données Éléments contribuant à la qualité et à la gouvernance de la donnée
Mission freelance
Data Architecte
Deodis
Publiée le
Kubernetes
Linux
Openshift
1 an
600-630 €
Île-de-France, France
Dans le cadre de l’administration et de l’évolution d’une plateforme IA, le Data Architecte intervient sur le maintien en condition opérationnelle (MCO) et l’optimisation continue des infrastructures Kubernetes supportant les workloads data et IA. La mission couvre la conception, le déploiement et l’exploitation de clusters on-premise, cloud ou hybrides, l’automatisation de l’infrastructure via IaC, ainsi que le renforcement de la supervision et de l’observabilité. L’objectif est de garantir la disponibilité, la performance, la sécurité et la résilience des services tout en accompagnant l’intégration de nouveaux modèles et l’optimisation des pipelines de data science.
Mission freelance
ACHETEUR Domaine Market Data/s
WorldWide People
Publiée le
Pilotage
12 mois
Paris, France
ACHETEUR Domaine Market Data . Acheteur senior spécialisé dans les données de marché, avec une solide expérience auprès des fournisseurs de données financières et une excellente compréhension des cas d'utilisation en salle des marchés. Localisation Paris / Télétravail Durée de la mission : 3 ans Mission : · Développer et entretenir des relations de proximité avec les lignes métier pour s’assurer de comprendre leur besoin en market data et négocier suivant leurs contraintes. · Apporter une expertise fonctionnelle et une connaissance approfondie de l'industrie des données de marché (Market Data) et de ses spécificités pour répondre aux besoins métiers. · Entretenir des relations avec les fournisseurs afin de comprendre leurs offres très spécifiques et très techniques, pour identifier des sources alternatives. · Analyser et challenger les besoins des clients internes et leur apporter votre expertise achats tout en garantissant la conformité avec les règles de conduite du Groupe applicables aux relations avec les fournisseurs. · Analyser les contrats des fournisseurs pour s’assurer de l’adéquation du contrat aux besoins métiers exprimés · Comprendre les usages des Data des utilisateurs pour s’assurer de la conformité des usages aux contrats fournisseurs associés · Négocier des contrats dans le cadre des renouvellements ou révisions des contrats de Market Data avec les fournisseurs externes pour le compte et au mieux des intérêts des lignes métier. · Suivre la conformité des contrats avec le service EI Juridique et EI Achats (Analyses de risques fournisseurs) · Etre force de proposition d’optimisation en anticipant les risques, les tendances et les opportunités. · Pour chaque contrat : · Réaliser une synthèse présentant le besoin, la réponde au besoin avec un support contractuel et une synthèse contrat sur les demandes de market data formulées par les lignes métiers. · S’assurer de bien comprendre, de challenger et de documenter l’utilisation faite des données souscrites par les lignes métiers notamment s’il s’agit d’alimenter des applications et des référentiels. · Assurer un reporting auprès des équipes de facturation et s’assurer d’une bonne coordination avec les équipes techniques si besoin. · Intégration des contrats dans les applications internes et mise à jour des informations régulières.
Offre d'emploi
Architecte Data GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data GCP pour définir et piloter l’évolution des plateformes de données cloud natives sur Google Cloud. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies GCP tels que BigQuery, Dataflow, Pub/Sub, Cloud Storage, Dataproc ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur GCP.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5711 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois