Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 173 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Expert NoSQL (F/H)

NAVIGACOM
Publiée le
Big Data
CI/CD
Cloud

12 mois
100-900 €
Yvelines, France

Missions Pour l’un de nos clients du secteur bancaire, vous intervenez sur des missions à forte valeur ajoutée en tant qu’Expert NoSQL. avec Expertise Kubernetes et GitOps, vous serez responsable de plusieurs aspects cruciaux du projet Vos tâches seront les suivantes : Construction et packaging des nouvelles offres DATA dans un environnement Kubernetes. Automatisation, industrialisation et documentation des solutions. Intégration de solutions de monitoring, d'alerting et de restriction de droits. Assurer le RUN des solutions développées. Veille technologique sur les produits NOSQL avec réalisation de POC, tests de performances et comparaison de solutions. Adaptation des offres DATA existantes pour les intégrer dans l'environnement client. Intégration de solutions de monitoring, d'alerting et de restriction de droits dans les offres. Accompagnement des architectes en apportant une expertise sur les technologies NOSQL / S3. Intervention en assistance/expertise auprès des clients. Définition et documentation des patterns d'usage.

Freelance

Mission freelance
Data Engineer

INSYCO
Publiée le
Big Data

21 mois
480-650 €
Paris, France

Bonjour, Nous recherchons pour notre client grand compte, secteur médias, un Data Engineer répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées par MAIL [à freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence VSE/DE/4390 en objet du mail --- LA MISSION --- Le département Data IA (DaIA) a la charge de mettre à disposition des métiers un socle technologique transverse permettant de mettre en production et industrialiser les cas d’usage Data et IA du client en développant notamment une plateforme de donnée BigQuery. Pour cela, notre client recherche un Data Ingénieur qualifié pour nous aider à concevoir, construire et gérer nos systèmes de données : • Migration des données du SI entreprise vers la plateforme de données GCP • Participer à l’industrialisation des cas d’usage métiers du client • Assurer la qualité, la fiabilité et l'accessibilité des données. • Collaborer avec les équipes de data science pour comprendre les besoins en données et mettre en place les solutions appropriées. • Assurer la maintenance et l'optimisation des systèmes de données existants.

Freelance

Mission freelance
Chef de projet Data - GED

Groupe Aptenia
Publiée le
Azure
Big Data
GED (Gestion Électronique des Documents)

6 mois
100-450 €
Lyon, Auvergne-Rhône-Alpes

Contexte de la mission : Au sein du pôle SI, composé de 2 personnes, de la Direction des Expertises Techniques et du Patrimoine, vous interviendrez sur les activités suivantes : Piloter le projet de mise en place d'un puits de données. Accompagner le transfert des applications SIG. Gérer les projets de GED, notamment le transfert des GED contractuelles et l'allotissement d'autres solutions de GED. Coordonner les activités liées à ces sujets, y compris les prestations avec des fournisseurs. Être le/la référent(e) technique sur les projets data et documentation en lien avec les métiers Objectifs/Descriptif de mission : Apporter du support et de l’expertise sur les sujets Data et Documentation.

Freelance
CDI

Offre d'emploi
PO DATA / IA

VISIAN
Publiée le
Big Data
Data science
Intelligence artificielle

1 an
10k-60k €
Paris, France

Collaboration étroite avec les parties prenantes pour comprendre les besoins et les objectifs: Recueil du besoin auprès des utilisateurs et définition des cas d'usage Entretiens individuels Workshop UX research Ateliers de conception détaillée avec l'équipe UX/UI Déclinaisons des parcours et rédaction des users stories Respect de la méthode INVEST Utilisation de l'outil JIRA Gestion du backlog de produits et définition des exigences du produit Planification et priorisation des fonctionnalités du produit Coordination des équipes de développement et suivi de l'avancement du projet Validation et acceptation des fonctionnalités développées Communication régulière avec l'équipe et les parties prenantes pour assurer la satisfaction du produit Analyse des données et des retours utilisateurs pour orienter les décisions de développement Participation aux réunions de planification, de rétrospective et de revue de sprint Production de supports de communication Travailler en étroite collaboration avec les équipes de data scientists, d'ingénieurs en IA, ainsi qu'avec les experts métiers pour définir les besoins et les spécifications techniques des projets

CDI

Offre d'emploi
Ingénieur Data / BI H/F

ENGIT
Publiée le
BI
Big Data

10k-55k €
Toulouse, Occitanie

📊🚀 Rejoignez notre équipe en tant qu’Ingénieur(e) Data & BI ! Vous êtes un(e) passionné(e) dans le domaine de la Data et de la BI, avec une expérience de plus de 5 ans ? Vous recherchez un environnement stimulant où vous pourrez mettre en œuvre vos compétences et contribuer à des projets novateurs ? Nous vous offrons l'opportunité de rejoindre une entreprise innovante. En tant qu’Ingénieur(e) Data & BI, vos missions principales seront de : · Assurer la continuité de tous les services de reporting data (rapports, dashboards, etc.) tout en mettant en place une nouvelle architecture. · Piloter la partie Data sur un projet de migration, en combinant une approche LCM (Lifecycle Management) et des solutions innovantes. · Concevoir des solutions de migration de données en assurant un très bon niveau de conception. · Travailler dans un environnement de Business Intelligence traditionnelle avec un usage fréquent de QlikView et PowerBI. · Faire preuve d'une grande autonomie et d'une appétence à comprendre les enjeux techniques et fonctionnels de l'environnement pour proposer des solutions adaptées. · Développer une excellente capacité d'analyse, une bonne capacité de synthèse, une curiosité naturelle et une force de proposition. · Communiquer efficacement avec les différentes parties prenantes du projet et assurer une coordination optimale des activités.

CDI
Freelance

Offre d'emploi
data product owner AND supply chain H/F

5COM Consulting
Publiée le
Big Data
Supply Chain

3 ans
43k-70k €
Nanterre, Île-de-France

Missions : En charge d’identifier les données nécessaires à la construction des KPIs et des produits analytiques et de l'exploration et de la compréhension des modèles de données liées à la supply chain dans les différents pays, le Data Product Owner sera responsable de : Obtention, compréhension et documentation approfondie des modèles de données existants dans chaque pays, en s’appuyant sur les coordinateurs et les Business owner au sein de la direction supply chain groupe Identification des règles de gestion spécifiques, des exceptions par format, pays, secteur de produit, et autres critères pertinents. Delivery : Pour assurer une harmonisation efficace des modèles de données à l'échelle du groupe, le Data Product Owner sera chargé de : Rédaction de spécifications détaillées pour adapter les modèles locaux au modèle harmonisé du groupe. Adaptation du modèle harmonisé en fonction des particularités propres à chaque pays, tout en assurant l'alignement sur les standards du groupe. Écriture et ajustement du modèle pour répondre aux besoins spécifiques des principaux indicateurs de performance (KPI) identifiés. Présentation des spécifications auprès des data engineer de united et animation du backlog sur ce domaine Tester et valider la donnée en sortie de United Data Governance & Communication : En tant que garant de la qualité des données en sortie de l'unité, le Data Product Owner aura pour missions de : Valider la documentation générée auprès des autres Data Product Owners et des parties prenantes impliquées. Documenter et communiquer régulièrement sur l'avancement du projet aux responsables produits et autres parties prenantes pertinentes Mettre en place des processus spécifiques pour gérer l'accès et la confidentialité des données, en impliquant activement les responsables métiers au sein de chaque pays. Participer activement aux ateliers d'harmonisation organisés au niveau du groupe, notamment au sein du data afin de favoriser la cohérence et la convergence des pratiques.

Freelance
CDI

Offre d'emploi
Product Owner Data/IA

skiils
Publiée le
Big Data
Data science
Intelligence artificielle

12 mois
47k-90k €
Paris, France

La prestation proposée consiste à être Product Owner au sein de l'équipe dédiée aux rédactions, et plus particulièrement au sein d'un squad composé également de data scientist, data engineer, ingénieurs développements pour les outils métiers existant, ... Gestion projet : Construction et suivi de l’exécution des plannings (tâches, charges, ressources, avancement) Pilotage de la qualité des livrables Rapports réguliers d’avancement Animation des comités et rituels projets Besoin prestations : Analyse des processus métiers, découpage en cas d'usage, rédaction des user stories Alimentation du backlog produit Identification des gains apportés par les projets et fonctionnalités Participation à la rédaction des spécifications techniques et fonctionnelles détaillées des développements à réaliser. Développement / Validation / Déploiement : Coordonner les équipes techniques de développements jusqu'au delivery Coordonner le déploiement, mise en production et éventuel accompagnement utilisateurs

Freelance

Mission freelance
Big Data Tech Lead H/F

NAVIGACOM
Publiée le
Big Data
Cloud

12 mois
100-1 100 €
Yvelines, France

Missions En tant que Tech Lead Data, votre rôle principal sera de diriger avec succès le déploiement de l'architecture Big Data dans l'écosystème informatique cloud. Vous serez le principal interlocuteur entre l'équipe d'architecture et les développeurs et serez responsable de la bonne mise en œuvre des architectures définies dans les délais impartis. Vos tâches seront les suivantes : Concevoir, mettre en œuvre et déployer une architecture dans le cloud pour des projets Big Data : Travailler avec les architectes pour concevoir une architecture de pointe pour les projets Big Data dans un contexte de volumétrie élevée. Implémenter les architectures définies selon le planning et les exigences définis. Excellence technique : Satisfaire aux exigences du Big Data, capacité à travailler dans un contexte de volumétrie élevée. Remettre en question les décisions architecturales clés en fonction d'un contexte spécifique (topologie des données, volume, exigence de temps d'exécution, etc.). Optimiser le traitement et le stockage des données pour l'efficacité. Assurer un dépannage rapide des problèmes avec la surveillance appropriée . Gestion de projet : Superviser plusieurs projets en parallèle , en veillant à ce que les délais soient respectés, les normes maintenues et les objectifs atteints. Collaboration : Agir comme le lien principal entre l'architecture et la mise en œuvre dans le projet. Travailler en étroite collaboration avec d'autres responsables techniques et architectes . Échanger des connaissances et se synchroniser avec d'autres équipes. Gouvernance des données : Garantir le respect des politiques de gouvernance des données liées à l'industrie financière. Documentation : Superviser la création et la maintenance d'une documentation précise des développements, des procédures techniques et des configurations système pour améliorer les connaissances et faciliter les processus d'intégration pour l'équipe.

Freelance

Mission freelance
Expert Technique DATA

SQLI
Publiée le
Big Data

6 mois
500-600 €
Lyon, Auvergne-Rhône-Alpes

Bonjour, Pour le compte de l'un de mes clients dans le secteur de l'énergie, je suis à la rercherche d'un expert technique en DATA. Ses impératifs : Une expérience technique forte en Data Et XP Responsable d'équipe de développement +10personnes. Une culture générale technique sur l’ensemble de la chaîne de création de valeur et de l’environnement de dev jusqu’à la prod. Une connaissance sérieuse des problématiques sécurité, performance et robustesse Stack technique du projet : o Big Data : Spark, Hive, Indexima. o Stockage : Oracle, CEPH S3 (parquet). o Langages : Java, Python, PL/SQL, Shell. o CI/CD : Ansible, Terraform, Jenkins, GIT. o ETL : Informatica. o Dataviz : Tableau Server. o Ordonnanceur : Control-M.

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

Freelance
CDI

Offre d'emploi
Développement backend SQL/clickhouse

Digistrat consulting
Publiée le
Apache
Big Data
DevOps

3 ans
40k-60k €
Paris, France

Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un développeur backend SQL/clikhouse. Périmètre fonctionnel : banque d'investissement Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, base de donées distribuée avec un systel de cache in memory, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins. Les principales tâches de la missions sont les suivantes : Le but est d'développer des nouvelles fonctionnalités demandées par le trading, et aussi techniquement améliorer la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions. Le candidat sera chargé de la partie back end ainsi que de la partie devops.

Freelance

Mission freelance
PO Data (Dataiku) H/F

LeHibou
Publiée le
Data management
Dataiku

6 mois
460-680 €
Paris, France

Notre client grand compte recherche un PO Data. Définition de la mission et des livrables : Prise en charge des besoins dans le cadre du projet Elaboration des expressions de besoin détaillées, participation aux travaux fonctionnels Rédiger les US (User Stories) Analyse des données avec du Dataiku Accompagnement de la mise en production Animer et participer aux cérémonies agiles Réalisation des supports d’ateliers et des comptes rendus dont il a la charge Users stories dans JIRA à destination de la MOE Datalake Définition de la stratégie de Recette Procédures et cahiers de recette

Freelance

Mission freelance
Delivery & Data Solutions Director

APYA
Publiée le
Data management
Management

6 mois
450-850 €
Yvelines, France

Le client une entreprise de conseil de premier plan dans son secteur, recherche un Directeur des Solutions de Livraison et des Données pour prendre en charge un rôle essentiel au sein de son équipe. Ce poste résulte du départ d'un collaborateur, offrant ainsi une opportunité à un professionnel hautement qualifié. Le titulaire de ce poste aura pour mission de piloter directement le flux de données tout en supervisant les autres flux. Il sera également responsable de la gestion des équipes transversales, y compris des équipes nearshore/offshore de plus de 50 équivalents temps plein (ETPs). Responsabilités : Piloter le flux de données directement et superviser les autres flux au sein de l'entreprise. Gérer efficacement les équipes transversales, y compris les équipes nearshore/offshore, en veillant à ce que les objectifs et les délais soient respectés. Apporter une expertise technique, notamment dans des environnements tels que MS Azure, pour soutenir les initiatives de livraison et de données. Assurer une communication fluide entre les différentes équipes et départements pour garantir la cohérence des livrables. Collaborer étroitement avec d'autres parties prenantes pour comprendre les besoins métier et développer des solutions adaptées. Maintenir un haut niveau de qualité dans la livraison des projets, en assurant la conformité aux normes et aux réglementations en vigueur.

Freelance

Mission freelance
Data Analyst / Power BI

KUBE Partners S.L. / Pixie Services
Publiée le
Data analysis
Microsoft Power BI
SQL

3 mois
100-410 €
Toulon, Provence-Alpes-Côte d'Azur

Responsabilités : Collaborer avec les clients pour comprendre leurs besoins en matière d'analyse de données. Discuter avec la DSI pour spécifier toutes les règles de gestion Collecter, nettoyer et préparer les données pour l'analyse. Effectuer des analyses approfondies pour identifier les tendances, les modèles et les insights pertinents. Créer des visualisations de données claires et concises pour communiquer les résultats aux clients. Fournir des recommandations stratégiques basées sur les insights obtenus. Animer les réunions Capacité à travailler de manière autonome et à respecter les délais.

CDI

Offre d'emploi
- Data Quality Analyst -

INGENIANCE
Publiée le
BI
Data analysis
SQL

50k-65k €
Paris, France

Nous recherchons un data quality analyst pour une mission chez un de nos clients grand compte. Contexte : Au sein de la DSI du groupe, la direction Data s’appuie sur les meilleures expertises et technologies pour accompagner les équipes opérationnelles au quotidien en leur mettant à disposition outils, insights et KPI Elle intervient sur tous les domaines opérationnels de notre client, notamment les produits, le CRM, les ventes, le merchandinsing, le demand planning, la logistique, les opérations et la finance dans une logique de collaboration, de résolution des problèmes et d’amélioration de la performance. Description de la mission En tant que Data Quality, vos responsabilités seront les suivantes : • Assister les Product Owners dans la mise en place du dispositif de qualité des données défini par les Data Owners (définition des exigences qualité, des contrôles, des KPIs et seuils d’alerte) • Animer le processus de gestion des incidents de qualité de données en faisant le lien entre les utilisateurs opérationnels et les équipes Data & IT • Aider les équipes opérationnelles à qualifier les incidents (impacts sur les usages, chiffrage, sévérité) • Analyser les root causes des incidents grâce à l’exploration des données des différentes bases • Proposer et instruire des plans de remédiations (identifier les solutions de contournement si besoin) • Prioriser les sujets en fonction de leur importance / urgence et de la difficulté à les développer • Collaborer avec les équipes de développement (Data Enginer, Dataviz Enginer) pour les analyses et la mise en place de solutions de correction • Collaborer avec les Data Owners afin de s’assurer de la cohérence et pertinence des solutions proposées • Proposer des outils / process / KPI afin de contribuer à l’amélioration continue de la qualité des données • Assister le Product Owner Master Data dans la conception de tableau de bord de pilotage de la qualité des données Environnement Technique : • ETL : Matillion (Cloud) • Dataviz : QlikSense • Cloud Data Platform : Snowflake sur Microsoft Azure • Langages : SQL , Python • Méthodologie Kanban orientée produit ou agile Informations Localisation : Paris, des déplacements sur le terrain sont à prévoir Date : Dès que possible

Freelance

Mission freelance
Azure Data Expert

Focus Cloud Group
Publiée le
Azure
Data Warehouse

3 mois
150-3k €
Paris, France

Data & Microsoft Fabric Specialist, freelance, full remote Opportunité attrayante pour un(e) Expert(e) Data avec une expérience sur la toute dernière solution analytique Microsoft Fabric afin de rejoindre acteur agile qui ne cesse d’innover en data basé à Londres. Vous prendrez part à un POC que vous développerez pour un important projet de migration de données. Vous aurez l’opportunité de collaborer sur l’un des tous premiers projets Microsoft Fabric en Europe et d’ajouter ce projet disruptif à votre portfolio tout en étant reconnu dans la communauté en tant que pionnier ! Si vous êtes un(e) spécialiste de la donnée avec un background en ingénierie et architecture avec une première expérience sur Fabric, si vous affectionnez les projets de grande ampleur de bout en bout et si vous souhaitez de rejoindre une équipe internationale de passionnés de la data alors cette mission est faite pour vous !

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous