Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 214 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI
Freelance

Offre d'emploi
Data analyst Supply chain

skiils
Publiée le
AWS Cloud
Databricks
Python

1 an
40k-55k €
Lille, Hauts-de-France

CDI

Offre d'emploi
Administrateur Systèmes LINUX H/F

GROUPE ARTEMYS
Publiée le
Ansible
Apache Tomcat
Linux

34k-38k €
Louviers, Normandie

Titre du poste Administrateur Systèmes Linux H/F (CDI). Localisation : Louviers (27) Fourchette de salaire : Entre 34 et 38K€ selon expérience. Date de démarrage : Immédiate (bien-entendu, on vous attend si vous avez un préavis). Alors, vous nous rejoignez ?! Votre maîtrise de l’environnement de production et des systèmes Linux vont vous permettre de prendre en charge l’administration de l’infrastructure en toute autonomie De belles missions vous attendent chez notre client sur des environnements riches et challengeants : · Gestion et administration des environnements de production Linux, infrastructures et applications. · Traitement des incidents de niveau 3 · Participation active dans le cadre des projets d’évolutions techniques, · Création de scripts d’installation sur les serveurs d’application, · Automatisation et intégration continue avec Jenkins · Optimiser la performance systèmes et applicatifs · Participation aux phases de validation technique lors des mises en production, · Rédaction de documentations techniques et procédures d’exploitation

Freelance

Mission freelance
Lead Data

Celexio
Publiée le
Azure
Databricks
Python

1 an
400-650 €
Pau, Nouvelle-Aquitaine

Bonjour à tous, Nous recherchons pour le compte de notre client un Lead Data, pour une mission longue réalisable avec 80% du temps de travail en remote. Profil recherché : - Minimum 7 ans d’expérience en Data, - Avoir déjà réalisé des missions de lead data avec du management d'équipe, - Excellentes compétences techniques et partage des best practices Data eng, Data science & Machine Learning, - Excellente maitrise de Python & Azure, - Excellente maitrise de Spark, PyTorch, Scala, TensorFlow, Databricks, - Préconisation, étude, intervention sur archi data, - Garantir l’industrialisation et la scalabilité de l’architecture MLOps. - Excellente maitrise de l’organisation Agile, - Être technophile et rigoureux, - Savoir managé une équipe de 10 personnes, - Excellente présentation et communication. Les plus de la mission ? Mission réalisable à 80% en remote ! Si cette annonce vous intéresse n’hésitez pas à me faire parvenir votre CV !

CDI

Offre d'emploi
Data Architect (H/F)

CELAD
Publiée le
Databricks

45k-55k €
Lyon, Auvergne-Rhône-Alpes

🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Data Architect pour intervenir chez un de nos clients. 💻💼 Votre mission 🎯 : Vous arrivez avec votre expertise technique et vous plongez dans le développement. Vous serez là, au cœur de la guilde des architectes, assurant la bonne marche du flux de données et donnant un coup de main aux équipes de développement. C'est vous qui aurez la responsabilité de donner vie à la solution dans votre domaine, en documentant chaque étape du processus. Et puis, vous avez l'habitude de façonner, documenter et garder en bon état les modèles de données, tant logiques que physiques.

Freelance

Mission freelance
Data Architecte

Templeton and Partners Limited
Publiée le
Architecture
Azure
Data analysis

12 mois
400-500 €
Lyon, Auvergne-Rhône-Alpes

Je recherche un Architecte de données pour l’un de nos clients dans le secteur de l’industrie. Voici les détails de la mission : Démarrage : Dès que possible Durée de la mission : Long terme Temps plein 3 jours sur site (Est lyonnais) TJM 400€ - 500 € (ou 50/60k en portage) Anglais (C1) Courant ou natif En tant qu’Architecte de données, vous ferez partie de l’équipe stable de BI & Analytics, axée sur le marketing et la communication des camions. Si vous avez des questions, n'hesitez pas à me contacter.

Freelance

Mission freelance
Data Engineering Senior H/F

LeHibou
Publiée le
Azure
Databricks
PySpark

12 mois
550 €
Paris, France

Notre client dans le secteur Énergie et ressources naturelles recherche un Data Engineering Senior H/F Descriptif de la mission: Notre client, acteur majeur des énergies, cherche un consultant Data Engineer Senior pour renforcer son équipe. Objectifs et livrables Nous recherchons une prestation de Data Engineering avec des compétences sur Python/PySpark/Databricks sous un environnement Azure Cloud. Le prestataire sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment : - Collecter les exigences des métiers et des utilisateurs - Concevoir l'architecture de données - Concevoir les pipelines de données - Mettre en production l'architecture - Assurer la maintenance et l'évolution de l'architecture Contributions transverses : -Collaboration et participation aux activités au sein du Chapter -Assister aux réunions « Communities of Practice (CoPs) », -Contribuer aux projets transversaux tels que les « starter-kits », « l’inner-sourcing », etc.

Freelance
CDI

Offre d'emploi
Data engineer databricks

VISIAN
Publiée le
Databricks
PySpark
Python

1 an
40k-60k €
Bagneux, Île-de-France

Le data engineer intègre une équipe en charge du lakehouse. De nombreuses challenges techniques sont attendus, la maitrise de l'outil DATABRICKS est un pre requis. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer) -Est en relation avec les équipes infrastructure afin d'assurer le cadrage et le déploiement des solutions valides -Support aux équipes consommatrices -Analyse d'anomalie et proposition solution court / moyen terme - Developpement sous Databrick (Python / SQL / Spark / Airflow) -Est force de propositions techniques, en capacité de faire un état des lieux sur les normes et process de devt et faire appliquer les recommandations.

Freelance

Mission freelance
ARCHITECTE DATA

KEONI CONSULTING
Publiée le
Architecture
Databricks
DevOps

12 mois
100-650 €
Vénissieux, Auvergne-Rhône-Alpes

Contexte de la mission : Nous recherchons un Domain Data Architect prenant en charge la zone EMD BU. Cette personne aura la responsabilité de créer l'architecture cible complète pour la BU EMD alignée sur l'architecture Client et de soutenir la migration du développement vers cette cible. Nous recherchons une personne ayant une bonne compréhension globale des services disponibles dans la pile Azure Analytics. Cette personne travaillera avec plusieurs équipes de produits. Il assurera le leadership et le soutien en matière d'architecture tout au long du cycle de vie de bout en bout de la gestion des données. MISSIONS : Vous assurez un leadership technique, vous participez aux efforts de développement et vous représentez toutes les capacités internes et externes de la plateforme. Vous serez un membre actif de la guilde des architectes pour superviser le processus de gestion des données et fournir des conseils et une orientation aux équipes de développement. Vous êtes responsable de la conception, de la documentation de la solution dans votre domaine Vous êtes habitué à développer, documenter et maintenir des modèles de données logiques et physiques

Freelance
CDI

Offre d'emploi
Développeur DataBricks

VISIAN
Publiée le
Agile Scrum
Azure
Databricks

3 ans
28k-46k €
Lyon, Auvergne-Rhône-Alpes

Notre client, un grand compte du secteur de l'énergie, souhaite renforcer les capacités de développements d’une des feature team sur la technologie de développement Databricks (Databricks, Python, Spark SQL) dans un environnement 100% Cloud Azure (AKS, Docker, Azure Functions, Web API, Azure API manager, REDIS cache, Event hub, StreamAnalytics). Une expérience Azure passée serait appréciée. Nous sommes à la recherche d'un profil de développeur Databricks H/F. Les principales activités sont : Développements de pipelines Data permettant la construction et l’évolution de notre Datalake : Azure Databricks, Python, Spark SQL, Azure Blob Storages Participation aux déploiements sur les environnements de test et de production Maintien en condition opérationnelle des éléments logiciels en production Interaction avec les équipes de développement Web, IoT, SQL et Wonderware En fonction des autres compétences du candidats, d’autres activités pourraient être : Participation à des réunions de conceptions et de chiffrages Participation à des réunions de prises de décisions techniques Conseils techniques au Tech Lead / Architecte de l’équipe « Data » et de la plateforme Le candidat devra pouvoir s’intégrer dans un projet dynamique en méthodologie agile et dans une équipe de grande taille. Contexte : La plateforme digitale dédiée aux énergies renouvelables. Ce nouvel outil de gestion des données est connecté à l’ensemble des centrales de production d’énergies renouvelables du Groupe à travers le monde pour améliorer les performances des parcs éoliens et solaires. Avec cette plateforme, notre client souhaite faciliter la prise de décision des exploitants, permettre une maintenance prédictive et améliorer la rentabilité des installations. Contexte technique : Il s'agit d'une plateforme contenant de nombreux modules différents tous basés sur des technologies Schneider ou Microsoft. Il s’agit d’une plateforme totalement hébergée dans le Cloud et déployée dans une vingtaine de pays.

Freelance
CDI

Offre d'emploi
Data analyst supply chain

skiils
Publiée le
Databricks
Python
SQL

12 mois
10k-58k €
Lille, Hauts-de-France

Data analyst confirmé à Senior Connaissance supply chain et logistique Maitrise python et SQL Maitrise de tableau Maitrise de DBT et databricks un plus S'investir auprès des interlocuteurs métier et sur le terrain opérationnel afin de comprendre au mieux la problématique sur laquelle tu travailles. Tu imagines les solutions Data correspondantes en étant force de proposition et en respectant leurs contraintes et avec une bonne connaissance des analyses et outils existants. Identifier les données nécessaires à ton étude, tu t’assures de leur qualité et fiabilité. Tu effectues le nettoyage et la préparation préalables à l’application des méthodes statistiques et analytiques que tu auras choisi. développer et documenter les analyses (data sourcing, hypothèses et méthodes analytiques) dans une logique Lean & Agile assurer le monitoring des analyses existantes, anticipes les impacts et organiser le support. rendre disponible les résultats de tes analyses via des interfaces simples et user friendly. (maitrise de Tableau Software importante). Accompagner dans l’usage de celles-ci et dans l’application opérationnelle de vos études. Construire des dashboard efficient et user friendly sur tableau software

Freelance

Mission freelance
développeur python spark

Innov and Co
Publiée le
Databricks
PySpark
Python

12 mois
100-540 €
Boulogne-Billancourt, Île-de-France

Package pyspark Documentation technique Compétences techniques PYTHON / PYSPARK / SPARK - Confirmé - Impératif Databricks/ datafactory/ azure devops - Confirmé - Impératif Integration GIT - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Description détaillée Dans le cadre de la mise en place du projet Data Finance nous recherchons un data engineer confirmé. - Contexte : le projet Data Finance à pour objectif de mettre a disposition des données consolidé de différente source (base de données relationnelle, SAP , base de données Iaas) dans un modèle de donnée modélisé en Etoile a des fins d'analyse financier. - Environnement technique : Azure DataFactory, Databricks, Pyspark, SQL , Azure devops, Blob Storage. - Mission du candidat : Développer des pipeline d'ingestion des données dans le datalake avec datafctory Développer des flux de transformation de données via Python/spark/ Pyspark Databricks. Mettre en place des pipeline CICD azure devops Participé au re factoring du code existant Être garant de la qualité du code et le bon respect des norme de développement Mis en place des test unitaire. Mise en place du monitoring et de la supervision de l'application datafinance . - Compétences requises : - Une bonne maitrise SQL / Pyspark / SPARK. -Avoir au moins 4/5 ans d'expérience en tant que Data engineer / utilisation de databricks. - Une connaissance environnement Cloud (Microsoft Azure), GIT, Devops - Une bonne communication et être fort de proposition. - Connaissance des bonnes pratique de développement.

Freelance
CDI

Offre d'emploi
Data engineer senior Pyspark AWS

skiils
Publiée le
AWS Cloud
Databricks
PySpark

8 mois
56k-68k €
Lille, Hauts-de-France

Data engineer senior Travailler l'architecture du produit avec le Tech Lead Mettre en place la stack technique Apporter une expertise sur la constitution de datasets & KPIs Assurer la qualité des traitements et des données Etre capable de créer des KPIs à partir des données du Datalake Maîtriser les modèles de données et les outils de transformation Mettre en place des indicateurs de mesure de qualité sur chaque développement engagé pour assurer la bonne mise à disposition de la donnée Mission située à Lille

Freelance

Mission freelance
consultant Nexthink

Hanson Regan Limited
Publiée le
Data analysis
ITSM

7 mois
100-800 €
Clermont-Ferrand, Auvergne-Rhône-Alpes

Hanson Regan recherche actuellement un consultant Nexthink en freelance pour une entreprise française bien connue. Grâce à votre expérience en gestion de la livraison et des opérations, vous aiderez le client à assurer l'optimisation de Nexthink et serez à l'aise en tant qu'expert en la matière sur la plateforme. Le consultant Nexthink retenu devra avoir une expérience démontrable dans la gestion des livraisons, ainsi qu'une expérience de l'utilisation de Nexthink et de l'exploitation des données associées. Vous aurez une bonne connaissance du dépannage informatique, de l'analyse des données, ainsi qu'une bonne compréhension de ServiceNow ou d'outils ITSM similaires. Le travail hybride est pris en charge pour ce rôle, dans un premier temps jusqu'à fin 2024, avec un excellent potentiel d'extensions multiples. Les candidats retenus doivent être capables de travailler via leur propre entreprise française. Nous ne pouvons malheureusement pas accepter de candidats Portage pour cette mission. Si vous êtes curieux d'en savoir plus, veuillez nous contacter dans les plus brefs délais avec un CV à jour aux détails ci-dessous.

Freelance
CDI

Offre d'emploi
analytics engineer confirmé

skiils
Publiée le
Databricks
Python
SQL

12 mois
35k-82k €
Paris, France

Automatiser et industrialiser les pipelines de transformation de données qui servent aux dashboards, modèles IA et data analyses Construire et modéliser la semantic layer de domaine métier (commerce, supply, , etc.) ; définir la stratégie de nos stacks techniques et garantir la qualité des données exposées ; Maintenir et repenser les datasets et pipelines existants pour servir une plus large variété de use cases Permettre de l'analytique intelligente en construisant des datasets robustes, fiables et pertinents ;

CDI

Offre d'emploi
Ingénieur Data / BI H/F

ENGIT
Publiée le
BI
Big Data

10k-55k €
Toulouse, Occitanie

📊🚀 Rejoignez notre équipe en tant qu’Ingénieur(e) Data & BI ! Vous êtes un(e) passionné(e) dans le domaine de la Data et de la BI, avec une expérience de plus de 5 ans ? Vous recherchez un environnement stimulant où vous pourrez mettre en œuvre vos compétences et contribuer à des projets novateurs ? Nous vous offrons l'opportunité de rejoindre une entreprise innovante. En tant qu’Ingénieur(e) Data & BI, vos missions principales seront de : · Assurer la continuité de tous les services de reporting data (rapports, dashboards, etc.) tout en mettant en place une nouvelle architecture. · Piloter la partie Data sur un projet de migration, en combinant une approche LCM (Lifecycle Management) et des solutions innovantes. · Concevoir des solutions de migration de données en assurant un très bon niveau de conception. · Travailler dans un environnement de Business Intelligence traditionnelle avec un usage fréquent de QlikView et PowerBI. · Faire preuve d'une grande autonomie et d'une appétence à comprendre les enjeux techniques et fonctionnels de l'environnement pour proposer des solutions adaptées. · Développer une excellente capacité d'analyse, une bonne capacité de synthèse, une curiosité naturelle et une force de proposition. · Communiquer efficacement avec les différentes parties prenantes du projet et assurer une coordination optimale des activités.

CDI
Freelance

Offre d'emploi
data product owner AND supply chain H/F

5COM Consulting
Publiée le
Big Data
Supply Chain

3 ans
43k-70k €
Nanterre, Île-de-France

Missions : En charge d’identifier les données nécessaires à la construction des KPIs et des produits analytiques et de l'exploration et de la compréhension des modèles de données liées à la supply chain dans les différents pays, le Data Product Owner sera responsable de : Obtention, compréhension et documentation approfondie des modèles de données existants dans chaque pays, en s’appuyant sur les coordinateurs et les Business owner au sein de la direction supply chain groupe Identification des règles de gestion spécifiques, des exceptions par format, pays, secteur de produit, et autres critères pertinents. Delivery : Pour assurer une harmonisation efficace des modèles de données à l'échelle du groupe, le Data Product Owner sera chargé de : Rédaction de spécifications détaillées pour adapter les modèles locaux au modèle harmonisé du groupe. Adaptation du modèle harmonisé en fonction des particularités propres à chaque pays, tout en assurant l'alignement sur les standards du groupe. Écriture et ajustement du modèle pour répondre aux besoins spécifiques des principaux indicateurs de performance (KPI) identifiés. Présentation des spécifications auprès des data engineer de united et animation du backlog sur ce domaine Tester et valider la donnée en sortie de United Data Governance & Communication : En tant que garant de la qualité des données en sortie de l'unité, le Data Product Owner aura pour missions de : Valider la documentation générée auprès des autres Data Product Owners et des parties prenantes impliquées. Documenter et communiquer régulièrement sur l'avancement du projet aux responsables produits et autres parties prenantes pertinentes Mettre en place des processus spécifiques pour gérer l'accès et la confidentialité des données, en impliquant activement les responsables métiers au sein de chaque pays. Participer activement aux ateliers d'harmonisation organisés au niveau du groupe, notamment au sein du data afin de favoriser la cohérence et la convergence des pratiques.

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous