Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi Data Scientist Confirmé
Maîtriser les outils statistiques et les informations nécessaires à la mise en place de bases de données, Gérer parfaitement les différentes technologies spécifiques au Big Data, Trouver des sources de données pertinentes, et extraire les données du système source, Mettre en œuvre le data warehouse "entrepôt de données"... (DMP / Data Management Platform), Assurer les mises à jour régulières des bases de données et contrôler la qualité des données, Traduire des données business en données statistiques, et analyser les informations chiffrées issues des activités de l’entreprise, Concevoir et faire évoluer les tableaux de suivi et de pilotage des activités, Optimiser les segmentations client au travers de données comportementales, Synthétiser et vulgariser les informations pour les rendre accessibles aux dirigeants de l’entreprise et aux équipes.
Mission freelance Data Engineer
Nous cherchons pour l'un de client dans le secteur public Bancaire un Data enginner pour intégrer un un projet « Mieux évaluer et mieux prévenir les risques pour le système financier ». L’analyse du fonctionnement de la sphère financière et en particulier l’identification et la quantification des risques sont au cœur des missions du Pôle de Stabilité Financière. Ces travaux alimentent les échanges et les prises de décision au sein des enceintes françaises, européennes, et internationales de stabilité financière ainsi que les groupes de travail internationaux et les publications académiques. Dans ce contexte, le projet vise à fournir les données, les infrastructures de stockage et de traitement et les outils analytiques, en s’appuyant sur le projet DGSI Data Plateforme
Offre d'emploi Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Mission freelance Data Engineer Confirmé H/F - Toulouse / Remote
Notre client dans le secteur Transport et logistique recherche un Data Engineer Confirmé H/F Descriptif de la mission: Dans le cadre de l'un de ses projets, notre client souhaite faire appel à un Freelance expérimenté sur la Data Vous serez intégré aux équipes BI-Big Data composé d'un chef de projet et d'un développeur, qui ont en charge la conception et livraison des solutions Bi / Big data Travail en mode Agile/Safe (suite Atlassian/JIRA/Confluence), en collaboration avec nos AMOs et MOAs du domaine CLIENT
Offre d'emploi Data Engineer / cube OLAP / cach in memory / base de données distribuée
💼 Poste : Data Engineer / cube OLAP / cach in memory / base de données distribuée 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, base de donées distribuée avec un systel de cache in memory, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins.Dans le cadre d'un projet de migration de la solution du in memory cach distribué vers une solution de cube OLAP, notre client recherche un Data Engineer avec une forte expertise dans les applications à faible latence / data driven design / 🤝 Expertises spécifiques : Le candidat sera chargé de la partie back end ainsi que de la partie dev ops. but est d'développer des nouvelles fonctionnalités demandées par le trading, et aussi techniquement améliorer la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions. Big data Java core Multithreading Apprécié Apache ignite ou Active Pivot Apprécié Technologies Devops Apprécié clickHouse Apprécié
Offre d'emploi Data engineer Foundry Palantir
Accompagner les Développeurs Junior. Assurer la qualité technique des développements dans Palantir Assurer la communication avec les administrateurs de la plateforme Palantir Proposer les architectures techniques adéquates pour assurer la fiabilité des flux de données et faciliter leur maintenance Réaliser les demandes de développement d’intégration de données dans Palantir Documenter les réalisations, présenter le résultat et faire le suivi des recettes techniques Participer au suivi quotidien de l’application en production et au support aux utilisateurs
Offre d'emploi Product Owner – Anglais – MARSEILLE
Dans le cadre de notre développement en région PACA, nous recrutons un Product Owner – (F/H ) chez notre client à Marseille. Il s’agit d’assurer le bon développement d’ outils à destination d’une transition énergétique de l’entreprise. Mener l' analyse du système et du process existant Collecter les besoins utilisateurs, aider à l’arbitrage, à la priorisation et formalisation des Use case Gérer le Backlog : Analyse d’impacts, priorisation, lotissement, découpage du projet, rédaction de la documentation (Epics, User stories, maquettage, spécifications) Rédiger les « user story » à partir de ces exigences avec les critères d’acceptances et définition des priorités pour identification d’un Backlog. Organiser les ateliers et validation des maquettes avec les équipes web. Assurer la recette : rédaction des scénarios de tests, définition des jeux de données, réalisation des tests. Accompagner les équipes de maitrise d’œuvre (Web , BI, data ) dans leur compréhension des attentes du métier tout au long de la phase d’implémentation. Préparer le déploiement des outils : identification des sujets de conduite du changement, rédactions des documents d’accompagnement/ formation. Superviser la mise en place des outils, process et/ ou systèmes Proposer des solutions de remplacement ou d’un protocol d’évolution Améliorer la Data Quality des donnes clés pour le projet. Reporter l’avancement aux chefs de projet métier et à l’IT. Mode = 3 jours de présentiel – 2 jours de télétravail. Livrables attendues : • Business Requirement Détaillés • User Stories, définition des jeux de données • Cahier de test utilisateur pour la recette des applications • Rédaction des guides utilisateur • Plan de déploiement
Mission freelance Consultant Power BI
Nous sommes à la rechercher d’un Consultant Power BI Confirmé, pour une mission Freelance dans le secteur du Retail/Luxe. Condition : -3 ans d’expériences sur la BI minimum -Projet Ecommerce -Mission Freelance de Longue durée 12 mois -Full Remote ( Vous pouvez egalement aller sur site, si vous le souhaitez) -Secteur du Retail/Luxe -Demarrage Asap (Le client pourra attendre 1mois à partir de l'accord client) -Vous devrer accompagner la gouvernance, le déploiement et l’usage autour des besoins de l’expérience collaborateur, Je vous prie de bien vouloir postuler à cette offre si celle-ci vous intéresse.
Mission freelance Architecte big data HDP ou CDP on premise - Sophia Antipolis
Architecte big data HDP ou CDP on premise Au sein de l’équipe socle BigData, en lien avec le product owner socle et l’architecte déjà présent, le profil prend un rôle d’architecte / expert sur le socle BigData : • Porter des sujets d’architecture pour intégrer le Cloudera Data Platform • Contribuer à l’industrialisation de notre plateforme Big Data (déploiement des composants, supervision, sécurité, etc…), • Rédiger des modes opératoires et des documentations techniques pour faciliter la compréhension et la montée en compétence de l’équipe, • Qualifier et chalenger les architectures applicatives proposer par les équipes projets • Identifier les faiblesses des environnements et proposer des solutions pour optimiser et améliorer la robustesse de la plateforme , • Apporter de l’expertise sur les incidents et être force de proposition sur les nouveaux usages (APIsation, PRA/PCI, etc…), • Si le profil a une fibre chef de projet / scrum master, il pourra prendre en charge une partie de l’animation de l’équip. Ces activités nécessitent une connaissance technique de l’environnement Hadoop Big Data acquise sur plusieurs architectures Big Data déployées en production, le sens du service et une forte autonomie. Une bonne vision d’ensemble sera nécessaire : sécurité, exploitation, etc… ü Livrables de la prestation : • Etudes d’architecture • POC : Code source commenté / Tests • Industrialisation de composant du socle • Documentations diverses ü Compétences techniques requises : • Maitrise d’une solution HDP ou CDP on premise • Cloudera Manager, Kerberos, Ranger • Kafka • Spark, Zeppelin • HDFS, Hive, Hbase • Oozie • Yarn • Jenkins • Docker L’ensemble de ces activités nécessitent une très bonne connaissance des composants Hadoop. Une expérience de 3 à 5 ans sur un poste d’architecte Big Data nous semble nécessaire pour bien appréhender ses activités. Ces activités nécessitent une forte autonomie, un mindset d’architecture et d’administration de plateforme Big Data, de la curiosité et une appétence pour la mise en place de solutions techniques. Un profil ayant une appétence pour l'animation d'équipe serait idéal. Une expérience réalisée sur un cluster sécurisé et « kerberisé » serait un plus, tout comme une expérience de déploiement de cluster à la demande.
Mission freelance Data Analyst / Scientist
Contexte de la mission La Direction DPPS (Produits et Plateformes de Services), en innovation continue, a pour rôle de concevoir, développer et déployer les nouveaux produits et service du fixe du futur. En tant que Data Analyst/Scientist, vous serez responsable de l’intégration, du traitement et de l’analyse des données pour aider à prendre des décisions éclairées, améliorer l'efficacité opérationnelle et la qualité de service chez nos clients. Objectifs et livrables Vos principales missions seront les suivantes : - Collecter, nettoyer, analyser, mettre en forme et interpréter des données provenant de diverses sources internes et externes. - Collaborer avec des équipes transverses pour identifier les indicateurs clés de performance (KPI) et les objectifs de l'entreprise. - Utiliser des outils d'analyse de données et des logiciels de visualisation (tels que Excel, Python, R, Tableau, Power BI) pour traiter et analyser des ensembles de données volumineux. - Développer et maintenir des rapports, des tableaux de bord et des visualisations de données pour faciliter le suivi des performances, leurs dérives et la prise de décision. - Identifier les tendances, les anomalies et les opportunités d'amélioration dans les données et leurs croisements. - Présenter les résultats de l'analyse aux parties prenantes et formuler des recommandations pour améliorer les opérations et les performances. - Contribuer à des projets d'analyse prédictive pour anticiper les tendances et les problèmes potentiels Pyspark - Airflow - ML - python - R - Power BI - Spark - HAdoop - SAS - Tableau
Mission freelance Administrateur expertise hadoop - Sophia Antipolis
Administrateur expertise hadoop Nous recherchons un profil administrateur / expert HADOOP (Cloudera Data Platform ou Hortonworks) pour travailler principalement sur la migration HDP vers CDP Sous le pilotage du PO et de l’architecte Big Data, il s’agit de réaliser des actions relatives à la migration du socle Big Data de la suite HDP vers CDP. • Administration de la suite CDP o Installation de composant technique CDP o Configuration de composant de la suite CDP • Développement / configuration sur les composants spécifiques UCN (Shell, ansible, devops) • Rédiger des modes opératoires et des documentations techniques pour faciliter la compréhension et la montée en compétence de l’équipe Ces activités nécessitent une appétence technique de l’environnement Hadoop Big Data et de la conteneurisation, le sens du service et une bonne autonomie. Les composants logiciels à connaître ou à maitriser sont : • Hadoop • Kerberos • Ranger • Hive • Ansible • Oozie • Yarn • Spark • Gitlab • Bonne connaissance de l’administration de CDP et/ou HDP • Docker L’expérience souhaitée est d’au moins 3 ans sur un poste similaire.
Offre d'emploi DataEngineer Confirmé Nantes
Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe. Vous serez responsable de contribuer à la fabrication de produits dans un environnement Cloudera, avec une allocation de 80% de votre temps. De plus, vous apporterez votre expertise dans l'accompagnement à la fabrication des modèles de Machine Learning sur des données énergétiques et ESG, ce qui constituera 20% de votre activité. Si vous êtes passionné par les défis techniques et souhaitez contribuer à des projets significatifs dans le domaine de la finance durable et de l'IA, rejoignez-nous!
Offre d'emploi Product Manager Senior Data
Bonjour, Nous recherchons un profil Senior Product Manager Data pour accompagner le Lead Product Manager pour assurer le suivi et le bon fonctionnement du Data Lake. Missions principales : Définition de la roadmap Analyser et spécifier ces besoins pour identifier les fonctionnalités à développer Estimer et planifier le développement des user stories avec l'équipe Accompagner les équipes Run Définition des KPI Compétences : Solide expertise dans le domaine des données, accompagnée d'une base technique robuste. Rigoureux(se) et capable de synthétiser des informations complexes. Excellentes compétences en analyse de données. Expérience pratique avec la méthodologie Agile. Connaissances techniques approfondies en matière de gestion et de traitement des données. Excellente communication tant à l'écrit qu'à l'oral. Aptitude à travailler de manière transversale. Capacité à prendre du recul et à adopter une vision stratégique axée sur les résultats.
Offre d'emploi Ingénieur Expert Hadoop (Cloudera CDP)/ Ansible
Contexte: Le service réalise le développement BIGDATA , et garantit : - L’exploitabilité des présentations mises en œuvre - L'expertise des ensembles applicatifs - Le planning global de production - Le support au pilotage 💡 Les principales missions sont : - L’automatisation basée sur Cloudera CDP 7.1 à base d’Ansible et Terraform dans un contexte hybride cloud interne et serveurs physiques - Maintien de la production - La gestion des nouvelles demandes de nos bénéficiaires - Livraisons des projets qui apportent de la valeur à nos bénéficiaires - L’automatisation de l'administration et des demandes (self-service, API, scripts) - La mise en place des tests de nouveaux composants
Mission freelance Lead DEVOPS / Delivery Manager
Les missions sont : - Maintien en conditions opérationnelles de la plateforme et intervention d'expertise sur les opérations planifiées et les incidents critiques; - Apport de solutions IT répondant au mieux aux besoins du business portés par la/le Product Owner (Métiers/Fonctions) en cherchant toujours à maximiser la valeur générée; - Proposition et assurance de l’adéquation des solutions proposées entre les différents assets de la plateforme hybride: cluster CDP, cluster k8s, module d’ingestion (Java/Spark), Data Prep (Dataiku), Data Viz (Tableau) et interface pour l’archivage légal (Angular/Java); - Maintien à jour de la documentation technique de la plateforme; - Responsabilité de la conception technique du Produit conformément aux exigences (fonctionnelles et techniques) et prenant en compte les contraintes d’intégration et les exigences non-fonctionnelles (normes & standard, sécurité IT, continuité IT, Production, performances, obsolescence …); - Assurance de la qualité des solutions, mesure de cette qualité, alerte sur les non-conformités et validation des solutions définitives; - Analyse des risques liés aux solutions envisagées et proposition d'actions de remédiation; - Rôle de coach pour faire progresser les Data Engineers de l’équipe sur le plan technique, en s’appuyant sur son expérience et ses connaissances; Compétences Techniques: - Expérience (10 ans minimum) dans une équipe agile (Squad), garant(e) de la qualité logicielle du Produit livré; - Solide culture informatique transverse (système, réseau, cybersécurité, …); - Expérience significative dans le delivery en production et bonne compréhension des méthodes et outils DevOps (Git, Jenkins, Ansible, …); - Très bonne compréhension des systèmes et traitements distribués (Hadoop, Spark, Kubernetes, Docker); - Une expérience et une bonne compréhension de Java et de son écosystème ainsi qu'une expérience de langages de scripting (Shell, Python, …) sont nécessaires; - Une expérience dans l'administration de clusters OnPremise et dans le Cloud est un vrai plus; - Connaissances en matière de Data (SQL, DWH, Hive, …); - Capacité à résoudre des problèmes; - Capacité à collaborer / travail d’équipe; - Orientation aux résultats; - Force de proposition. Nos clients sont situés majoritairement en France et au Portugal. Il faut donc être à l’aise en français et en anglais (niveau B2 exigé).
Offre d'emploi Architecte Technique Data (H/F)
Dans le cadre d'un projet d'envergure, nous recherchons un Architecte Data expérimenté qui interviendra sur différents sujets Technico-fonctionnel : Vos missions entre autres : Compréhension des besoins utilisateurs et du contexte technique. Responsabilité sur les dossiers d'architecture . Réalisation de l'analyse fonctionnelle et applicative. MAJ et enrichissement des cartographies Conseils auprès des niveaux Direction & Manager. Collaboration avec les autres architectes Le poste est pourvoir dès que possible à Nantes Rythme : 3j sur site / 2j de TT Pas de full remote possible
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes
Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !