Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 190 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
- Data Quality Analyst -

INGENIANCE
Publiée le
BI
Data analysis
SQL

50k-65k €
Paris, France

Nous recherchons un data quality analyst pour une mission chez un de nos clients grand compte. Contexte : Au sein de la DSI du groupe, la direction Data s’appuie sur les meilleures expertises et technologies pour accompagner les équipes opérationnelles au quotidien en leur mettant à disposition outils, insights et KPI Elle intervient sur tous les domaines opérationnels de notre client, notamment les produits, le CRM, les ventes, le merchandinsing, le demand planning, la logistique, les opérations et la finance dans une logique de collaboration, de résolution des problèmes et d’amélioration de la performance. Description de la mission En tant que Data Quality, vos responsabilités seront les suivantes : • Assister les Product Owners dans la mise en place du dispositif de qualité des données défini par les Data Owners (définition des exigences qualité, des contrôles, des KPIs et seuils d’alerte) • Animer le processus de gestion des incidents de qualité de données en faisant le lien entre les utilisateurs opérationnels et les équipes Data & IT • Aider les équipes opérationnelles à qualifier les incidents (impacts sur les usages, chiffrage, sévérité) • Analyser les root causes des incidents grâce à l’exploration des données des différentes bases • Proposer et instruire des plans de remédiations (identifier les solutions de contournement si besoin) • Prioriser les sujets en fonction de leur importance / urgence et de la difficulté à les développer • Collaborer avec les équipes de développement (Data Enginer, Dataviz Enginer) pour les analyses et la mise en place de solutions de correction • Collaborer avec les Data Owners afin de s’assurer de la cohérence et pertinence des solutions proposées • Proposer des outils / process / KPI afin de contribuer à l’amélioration continue de la qualité des données • Assister le Product Owner Master Data dans la conception de tableau de bord de pilotage de la qualité des données Environnement Technique : • ETL : Matillion (Cloud) • Dataviz : QlikSense • Cloud Data Platform : Snowflake sur Microsoft Azure • Langages : SQL , Python • Méthodologie Kanban orientée produit ou agile Informations Localisation : Paris, des déplacements sur le terrain sont à prévoir Date : Dès que possible

Freelance

Mission freelance
Azure Data Expert

Focus Cloud Group
Publiée le
Azure
Data Warehouse

3 mois
150-3k €
Paris, France

Data & Microsoft Fabric Specialist, freelance, full remote Opportunité attrayante pour un(e) Expert(e) Data avec une expérience sur la toute dernière solution analytique Microsoft Fabric afin de rejoindre acteur agile qui ne cesse d’innover en data basé à Londres. Vous prendrez part à un POC que vous développerez pour un important projet de migration de données. Vous aurez l’opportunité de collaborer sur l’un des tous premiers projets Microsoft Fabric en Europe et d’ajouter ce projet disruptif à votre portfolio tout en étant reconnu dans la communauté en tant que pionnier ! Si vous êtes un(e) spécialiste de la donnée avec un background en ingénierie et architecture avec une première expérience sur Fabric, si vous affectionnez les projets de grande ampleur de bout en bout et si vous souhaitez de rejoindre une équipe internationale de passionnés de la data alors cette mission est faite pour vous !

Freelance

Mission freelance
Data Scientist confirmé

WHEEL OF WORK
Publiée le
Chatbot
Data science
Git

3 ans
100-700 €
Lille, Hauts-de-France

Description du projet : Nous recherchons un(e) Data Scientist Freelance pour rejoindre notre client, une entreprise développant une application Chatbot basées sur ChatGPT. En tant que Data Scientist, vous jouerez un rôle essentiel dans le développement et l'amélioration de leurs solutions de Chatbot, en utilisant les dernières technologies en intelligence artificielle générative. Responsabilités : Concevoir et développer des Chatbots avancés en utilisant ChatGPT, langchain, chainlit, et FastAPI, en assurant leur documentation complète, mise en production et optimisation continue. Gérer de manière autonome des projets de développement de Chatbot, de la conception à la mise en production, en garantissant un suivi rigoureux et une amélioration constante. Utiliser votre expertise en intelligence artificielle générative pour proposer des solutions innovantes et pertinentes. Identifier les opportunités d'amélioration des solutions existantes et assurer leur maintenance efficace. Collaborer avec les équipes techniques et non techniques pour comprendre et répondre à leurs besoins.

Freelance

Mission freelance
Data Architecte

DEV AND CONNECT
Publiée le
Data management
SQL

6 mois
500-600 €
Puteaux, Île-de-France

👉 Contexte : Architecte de données / Data Architect pour l’accompagnement sur un projet structurant et de grande envergure Les objectifs de la prestation sont de soutenir l'équipe dans la conception et la maintenance des modèles et bases de données. Ce rôle offre une opportunité exceptionnelle d'acquérir de l'expérience pratique dans la gestion et la structuration des données au sein d'un environnement professionnel dynamique. Vous serez un acteur clé de la co-construction d'un modèle d'entreprise commun, en garantissant une communication fluide et une interopérabilité entre les différents systèmes.

Freelance
CDI

Offre d'emploi
Développeur - Big Data | Spark (H/F)

CELAD
Publiée le
Big Data

1 an
40k-60k €
Lyon, Auvergne-Rhône-Alpes

🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Développeur – Big Data | Spark pour intervenir chez un de nos clients. 💻💼 Contexte : vos missions tournent autour de 4 axes : - Fournir une expertise en Big Data pour simplifier la manipulation des données. - Concevoir des solutions techniques pour le traitement massif de données. - Implémenter des solutions de stockage de données (SQL, NoSQL, etc.). - Assurer la sécurité et la lisibilité des pipelines de données pour faciliter l'analyse et la transformation. Voici un aperçu détaillé de vos missions 🎯 : - Création, maintenance, optimisation et sécurisation des bases de données pour garantir leur intégrité et leur performance. - Détection, proposition et suivi des optimisations des requêtes SQL, PL/SQL afin d'assurer l'efficacité des applications métier en termes de traitement des données. - Fournir un soutien aux équipes de développement en identifiant et en recommandant des solutions SGBD adaptées aux besoins métier, tout en assurant leur performance et leur pertinence. - Effectuer une veille technologique sur les outils utilisés dans le cadre du projet, afin de maintenir la pertinence et la compétitivité des solutions mises en œuvre. - Partager et dispenser des formations sur les bonnes pratiques en matière de gestion des bases de données, contribuant ainsi à l'amélioration continue des processus et des compétences au sein de l'équipe.

Freelance

Mission freelance
IA/Data Change Management

4 Impact
Publiée le
Big Data
Canva
Intelligence artificielle

12 mois
550-750 €
Hauts-de-Seine, France

Nous recherchons pour l'un de nos clients, un Data/IA Change Management. Missions : Contribuer au déploiement d'une culture orientée données Construire des actifs pour accroître la compréhension et l'utilisation de l'IA parmi tous les employés Ajuster la stratégie de communication global Identifier et créer de nouveaux contenus de communication Gérer et déployer le plan de communication global Organiser des événements Centraliser les actifs de communication Coordonner avec les parties prenantes clés Administrer Sharepoint Développer des KPI pour la mesure de la communication Assurer la conformité avec les lignes directrices graphiques

Freelance

Mission freelance
Lead technique Java Spark

CS Group Solutions
Publiée le
Big Data
Java

3 mois
300-3k €
Paris, France

Nous recherchons un Lead technique Java Spark Mission: Devenir le Pilier technique du socle Big Data en Java Spark pour aider les utilisateurs de différentes 6 squads à l’utiliser, répondre aux tickets, analyser les bugs et savoir coder les corrections et livrer (CI/CD Jenkins Maven) Rôle orienté RUN mais quelques évolutions peuvent toujours intervenir, avec donc la capacité de comprendre le besoin fonctionnel et développer l’évolution Gérer les clusters Hadoop MapR on-premise avec un accent sur l'optimisation des performances et le chargement de données en streaming (Kafka/MaprES) et en batch.Compétences techniquesJava - Confirmé - Impératif Spark - Confirmé - Impératif Hive, Hbase, MongoDB ou S3 - Confirmé - Impératif Evènementiel : Kafka, Kafka Connect, KStream - Confirmé - Impératif

CDI

Offre d'emploi
Business Analyst

CAT-AMANIA
Publiée le
Big Data
SQL

10k-65k €
Île-de-France, France

• Accompagner le métier pour formuler ses user stories et les rédiger, • Challenger les besoins exprimés par le métier, approfondir les expressions de besoin en précisant les détails des règles fonctionnelles et en s'assurant de leur complétude, • Accompagner les équipes de développement en précisant ou en faisant préciser les points qui le nécessitent • Rédiger les critères d’acceptance et tester les fonctionnalités développées. • Assurer au besoin une phase de change management La mission comporte également une part de suivi de production, comprenant : • Réalisation d'actions récurrentes (mensuelles) de contrôle et chargement de données, demandes de lancements de traitements, et suivi de leur bon déroulé • Support aux utilisateurs

Freelance

Mission freelance
Business Analyst - Market & Trading Data (FH)

Taleo Capital
Publiée le
Data analysis
Data management
Microsoft Power BI

1 an
550-690 €
Paris, France

Contexte : Au sein de l'équipe Market & Trading Data de la DSI Global Markets, le Business Analyst aura pour mission d'intervenir sur les projets liés au Datalake PreTrade & Execution sur les plateformes de trading électroniques (Forex, Fixed Income, Equities et Commodities). L'objectif est d'enrichir ce datalake avec l'ensemble des ordres et exécutions des plateformes électroniques utilisées par Global Markets, puis de valoriser les données de ce datalake. La mission a une durée prévue d'un an renouvelable et est située à Paris 13è. Principales missions : Interaction avec les plateformes électroniques et recueil des besoins utilisateurs (traders, vendeurs, compliance, …) Rédaction de spécifications fonctionnelles Tests Suivi des projets et sujets autour du Datalake Support fonctionnel

Freelance

Mission freelance
Data Steward (H/F)

Insitoo Freelances
Publiée le
Data analysis

2 ans
450-500 €
Lyon, Auvergne-Rhône-Alpes

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Steward (H/F) à Lyon, Auvergne-Rhône-Alpes, France. Contexte : Fonctionnement : sur site en périphérie à lyon 3 jours par semaine Les missions attendues par le Data Steward (H/F) : Nous recherchons un(e) Data Steward expérimenté(e) pour : - Diriger le cycle de gestion de la qualité des données pour le domaine Client - Sécuriser la qualité des données, y compris la définition des règles de qualité des données, s'assurer que la qualité des données est mesurée, suivre et rendre compte de la qualité des données. - Identifier, prioriser et initier des améliorations potentielles des données - Collaborer avec d'autres gestionnaires de données (concessionnaire, véhicule...) en ce qui concerne les règles communes pour les données partagées et les liens entre les sources de données de base. - Collaborer avec le digital product manager master data, les architectes de l'information et les architectes IT pour sécuriser les investissements IT clés et la feuille de route technique. - Communiquer sur la qualité des données et fournir un point de contact - Collaborer avec les responsables des processus d'entreprise et les gestionnaires des processus d'entreprise sur l'utilisation des données par les processus.

Freelance

Mission freelance
Data Engineer Informatica

VISIAN
Publiée le
Big Data
Databricks
Informatica

1 an
480-590 €
Paris, France

Bonjour, VISIAN est une société de conseil spécialisée autour de l'innovation, la conception produit et la data. Dans un marché où les enjeux de recrutement sont clés et où le nombre de freelances est en constante augmentation, Visian a créé une entité dédiée au recrutement de freelances experts du digital et d’IT: VASKA. Dans le cadre de ses projets clients, VISIAN recherche un/e Data Engineer. Contexte : Le candidat intégrera un pôle Data à la DSI et une équipe projet qui sera responsable de migrer des flux d'intégration de données de POWER Center vers Databricks. Missions : Le candidat sera responsable de migrer des flux ETL développés sur Informatica vers Databricks. Une connaissance d'informatica et AWS est très appréciée. Le candidat doit maitriser le langage SQL et Python et avoir une bonne culture Data des best practices en terme de nettoyage, de transformation et modélisation de données Une certification sur Databricks est également fortement appréciée. Si vous êtes à l’écoute du marché en ce moment, je vous invite à postuler en m’envoyant votre candidature. Bien à vous, Justine

Freelance
CDD
CDI

Offre d'emploi
Master Data Manager - Expert PIM Informatica

OPTEAMIS
Publiée le
Product Information Management (PIM)

6 mois
10k-145k €
Levallois-Perret, Île-de-France

Nous recherchons un Consultant expérimenté en Master Data Management / PIM Informatica pour soutenir le déploiement réussi du PIM dans le cadre d'un programme de transformation. Les prérequis incluent une expertise démontrée avec le PIM Informatica et une compréhension approfondie des processus d'intégration de données. Responsabilités : Reprise de données dans le PIM : Analyse des données existantes à intégrer. Définition des processus et outils pour l'extraction, le nettoyage et le transfert des données. Collaboration étroite avec l'équipe PIM pour une intégration efficace. Coordination avec les équipes techniques et fonctionnelles : Collaboration avec les équipes des systèmes ERP, WMS et WCS pour assurer l'alignement des données. Coordination des flux de données entre le PIM (Informatica), l'ERP (D365) et le WMS (Manhattan). Intégration du PIM avec le site web de commandes : Assurer l'intégration du PIM avec le nouveau site web de commandes. Garantir l'alimentation correcte des informations produit pour une expérience utilisateur optimale. Assurance de la qualité des données : Vérification de la cohérence et qualité des données françaises. Mise en place de processus de contrôle qualité pour garantir l'intégrité des données. Support à l'équipe Master Data : Soutien sur d'autres sujets en cours selon les besoins. Contribution à l'amélioration des processus et outils de gestion des données.

CDI

Offre d'emploi
Data Architect (H/F)

CELAD
Publiée le
Big Data

45k-50k €
Lyon, Auvergne-Rhône-Alpes

🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Data Architect pour intervenir chez un de nos clients. 💻💼 Votre mission 🎯 : Vous arrivez avec votre expertise technique et vous plongez dans le développement. Vous serez là, au cœur de la guilde des architectes, assurant la bonne marche du flux de données et donnant un coup de main aux équipes de développement. C'est vous qui aurez la responsabilité de donner vie à la solution dans votre domaine, en documentant chaque étape du processus. Et puis, vous avez l'habitude de façonner, documenter et garder en bon état les modèles de données, tant logiques que physiques.

CDI

Offre d'emploi
Data Ingénieur | Big Data (H/F)

CELAD
Publiée le
Big Data

40k-45k €
Lyon, Auvergne-Rhône-Alpes

🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Data Ingénieur | Big Data pour intervenir chez un de nos clients. 💻💼 Contexte : Vous ferez partie d'une équipe dynamique de 6 personnes, répartie sur plusieurs sites, et vous participerez activement au développement informatique utilisant des technologies telles que Hadoop, HDFS, Hive, Spark SQL et PySpark, ainsi que Sqoop. Vos principales responsabilités seront les suivantes 🎯 : - Contribuer au maintien en conditions opérationnelles - Participer à la conception - Effectuer des développements - Assurer les livraisons - Réaliser les recettes

Freelance

Mission freelance
Data Engineer - Elasticsearch

HR DNA
Publiée le
Data science
Elasticsearch

3 ans
100-2 900 €
Paris, France

Chers consultants, Nous recherchons actuellement, pour un client du secteur bancaire en Ile-de-France, un data engineer spécialiste Elasticsearch. Profil : Qui ai fait de la construction d’archi d’un cluster Elasticsearch Choix des noeuds Déployer des clusters onprem Qqn qui ait administré des clusters ElasticSearch au quotidien Traitement d'incidents Elasticsearch Montée de versions Elasticsearch 6 ans d'exp min Conception et définitions des stratégies et des fonctionnalités de notre service de log management; - Implémentation et enrichissement de l'automatisation du déploiement de nos solutions; - Déploiement (via ansible) des différents composants de notre service; - Maintien en conditions opérationnelles des plateformes et réalisation de leur monitoring; - Optimisation et sécurisation des composants du fait des grandes exigences de performance, fiabilité et sécurité de la plateforme; - Analyse et résolution des problèmes de performances ou les incidents non triviaux; - Gestion de l'ingestion des flux de données et traitement des erreurs éventuelles; - Création de l'outillage nécessaire à la bonne administration et au bon suivi de la plateforme; - Conseil vers clients internes sur les bons usages et aide dans les implémentations utilisant nos plateformes. Les principales technologies sont Elasticsearch, Linux et Kafka, et en secondaire Ansible et Python Si vous êtes intéressé, envoyez-moi votre CV par mail. Cordialement,

Freelance

Mission freelance
MLOps Engineer

Root-MENU
Publiée le
Data science
Docker
Python

6 mois
650-700 €
Bordeaux, Nouvelle-Aquitaine

Vous serez notamment chargé de : - Mise à dispo d'outillage d'aide aux développement, monitoring… , - Participer au déploiement de la démarche MLOps, - Participer à la généralisation de la mise en place de l'IA générative - Encadrer l’industrialisation du déploiement des applications en utilisant les bonnes pratiques de la CICD, - Proposer des architectures techniques en mettant en œuvre les principes de l’Agilité, d'intégration et de déploiement continu, en anticipant les besoin de scalabilité, - Former et accompagner les ML Engineer et datascientist aux outils DS. - Optimisation de code Python, - Contribuer à la réduction des coûts dans une démarche FinOps, - Faire une veille technologique autour des architectures data et datascience. Nous recherchons un profil avec de l'expérience sur la partie DevOps, mais sur des tools open-source.

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous