Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 222 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
Big data engineer

Datapy Group
Publiée le
Apache Kafka
Apache Spark
PySpark

32k-80k €
Île-de-France, France

Nous sommes à la recherche d'un Ingénieur Big Data pour palier au besoins de nos clients. Le candidat retenu sera chargé de concevoir, développer et maintenir l'infrastructure Big Data, ainsi que de travailler sur des projets d'analyse de données complexes. Responsabilités : Concevoir, développer et déployer des solutions Big Data évolutives et robustes. Mettre en place des pipelines de données pour l'acquisition, le stockage et le traitement de grands volumes de données. Travailler en étroite collaboration avec les équipes métier pour comprendre leurs besoins en matière d'analyse de données. Optimiser les performances des systèmes et des applications Big Data. Assurer la sécurité et la confidentialité des données tout au long du processus.

Freelance

Mission freelance
Data Engineer

MOBILE TECH PEOPLE
Publiée le
Azure
PySpark
Python

12 mois
100-410 €
Hauts-de-France, France

Nous recherchons pour le compte d'un de nos clients un Data Engineer en gestion de données Azure, souhaitant contribuer à des projets innovants dans un environnement dynamique et en constante évolution. Vous aurez l'occasion de travailler sur des tâches variées allant de la gestion de base de données SQL sur Azure à l'automatisation des pipelines ETL et au développement de scripts Python pour le web scraping. xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

CDI

Offre d'emploi
Data Scientist orienté Engineering - Partenaire Tech pour les Assureurs – Full remote (H/F)

EASY PARTNER
Publiée le
Apache Spark
AWS Cloud
CI/CD

65k-75k €
Paris, France

Contexte du poste : Nous sommes une entreprise innovante dans le secteur des technologies appliquées à l'assurance, basée dans la région parisienne. Notre mission est d'accompagner les assureurs dans la gestion et l'analyse de leurs risques, en utilisant des solutions SaaS avancées. Nous travaillons sur des projets variés visant à optimiser la souscription d'assurances et la gestion de portefeuille grâce à l'intelligence artificielle. Afin de soutenir notre croissance rapide et nos projets d'expansion internationale, nous recherchons un(e)Data Scientist orienté Engineering pour renforcer notre département Insights. Missions : - Concevoir et implémenter des modèles de Machine Learning pour répondre aux besoins business complexes. - Gérer le cycle de vie complet des modèles, de la conceptualisation à la mise en production. - Être le garant de la qualité du code au sein du département Insights, mettre en place des bonnes pratiques de développement. - Conduire des analyses ad hoc pour éclairer les décisions stratégiques. - Participer à des projets d'innovation et d'expérimentation de nouvelles technologies.

Freelance

Mission freelance
Dataiku

STHREE SAS pour COMPUTER FUTURES
Publiée le
Apache Spark
Dataiku
Hadoop

3 ans
100-500 €
Paris, France

Nous recherchons pour un de nos clients un Data engineer avec deux ans d’éxpériences à minima sur daitaiku , Ce collaborateur doit maitriser les technos comme Python stack technique du besoin : Python hadoop spark 2 ans a fond de dataiku Localisation : IDF, metro , Télétravail : 2 jours de télétravail Démarrage : asap Tjm : dépend de l’expérience, entre 500 et 600max Quelqu’un qui connait depuis 5 ans la solution NB : Ce besoin n'est pas encore exprimé chez notre client, c'est assez urgent nous pouvons faire passer les entretiens asap ainsi que le démarrage

Freelance

Mission freelance
Data Engineer (H/F) - Paris

Mindquest
Publiée le
Apache Kafka
Apache Spark
Cassandra

6 mois
700 €
Paris, France

Ingestion des données sources via NIFI dans des tables de travail Cassandra ou en parquet sur AWS S3 Développement des Traitements Spark/Scala en lots des données sources ingérées Traitement au quotidien des nouvelles données clients (ajout nouveaux clients Enrichissement au quotidien des données des clients avec des fichiers de scoring et de segmentation (fournis par un autre projet) Traitement toutes les 8 heures des nouvelles ventes avec notamment la mise à jour des ventes auditées ainsi que l’enrichissement des ventes avec les données des clients Ingestion toutes les 8 heures des données des ventes dans Druid Ajout et mise à jour des nouveaux produits des marques avec leur description, leur taille, leurs stocks …. Traitement en temps réel via Kafka/Spark des données sources fournies par les marques dans les topics dédiés : Enrichissement des données des produits des différentes marques en temps réel avec les informations des stocks, des prix Mise à jour temps réel des données des ventes Mise à jour temps réel des données clients Mise à jour des commandes clients Anonymisation des informations clients (RGPD) Mise à jour des stocks disponibles en magasin Exposition des informations des produits en transit (magasin d’origine, magasin destination) afin que les utilisateurs de Luce puissent estimer leurs dates de livraison Traitement et Stockage des données dans Apache Solr et Cassandra Exposition des données traitées dans une API nodejs à travers Cassandra et Solr Ingestion des données des ventes et commandes sur Apache Druid via NIFI Mise en place de tests automatiques afin d’éviter les régressions suite aux nouvelles évolutions Développement de tests unitaires avant déploiement Garantie de la cohérence des données Planification des heures de lancement des différents traitements afin d’éviter d’avoir des données corrompues Déploiement des différents traitements Spark via Jenkins/Livy dans les environnements dédiés Monitoring des Jobs Spark via Yarn et Spark UI avec un système d’alerting via Slack en cas de problème durant les traitements Mise en place de logs qui seront ensuite déposés dans ElasticSearch afin de faciliter la résolution et la recherche des bugs Optimisation des différents traitements Data (optimisation du code Spark, des traitements NIFI) Migration de tous nos workflows NIFI, traitements de données en lots/ temps réel Spark sur Amazon AWS Migration de l’api ainsi que des tables et collections utilisées dans Cassandra Environnement sur AWS Ordonnancement des tâches via Airflow/Python, gestion des différentes dépendances entre les traitements Mise à jour d’une librairie Airflow pour le lancement de nos Jobs Sparks ainsi que le monitoring (vérification des statuts des traitements). Mise en place des capteurs (sensors) nécessaires pour le suivi des statuts des traitements Mise à jour d’une librairie générique Spark pour les jobs d’ingestion via parquet/csv/json

CDI
Freelance

Offre d'emploi
Data Gouvernance

DSI group
Publiée le
Data analysis
Formation

2 ans
45k-62k €
Île-de-France, France

1. Dictionnarisation des Données : • Établir et maintenir un dictionnaire de données pour assurer une compréhension claire et uniforme des termes de données au sein de l'entreprise. • Collaborer avec les équipes techniques et métiers pour identifier, définir et documenter les données. 2. Gouvernance des Données de Production : • Mettre en place des politiques et procédures pour la gestion des données de production, en assurant leur intégrité, confidentialité et disponibilité. • Collaborer avec les équipes IT et métiers pour s'assurer que les données de production sont correctement collectées, stockées, traitées et archivées. 3. Gouvernance des Données Analytiques : • Développer et mettre en œuvre des stratégies pour la gestion des données analytiques, en s'assurant qu'elles sont pertinentes, précises et disponibles pour les analyses. • Travailler en étroite collaboration avec l'équipe des data analysts et data scientists pour optimiser l'utilisation des données analytiques. 4. Collaboration et Communication : • Servir de point de contact principal pour toutes les questions relatives à la gestion des données. • Assurer la communication et la formation des équipes sur les meilleures pratiques de gestion des données.

Freelance
CDI

Offre d'emploi
Data Engineer AWS

4 Impact
Publiée le
Apache Spark
AWS Cloud
Scala

12 mois
39k-50k €
Hauts-de-Seine, France

Nous recherchons pour l’un de nos clients un Data Engineer AWS. Contexte de la mission : Au sein de l'équipe chargée de développer des outils internes d’une entité, constituée de 10 personnes : Développeurs back/frond end et Ingénieurs Data, le Data Engineer AWS est en charge de mener à bien un besoin clé du Groupe autour du sujet Zéro Carbone. Affecté à l'équipe métier, nous travaillons en mode Scrum en collaboration avec un autre Data Engineer et un PO pour réaliser les tâches et mener à bien le projet à terme. Missions : - Créer des fonctions AWS Lambda et pour consommer des APIs provenant de l'extérieur (données Gas/Power) et alimenter nos buckets S3 dédiés. - Développer des jobs AWS Batch pour alimenter nos buckets S3 avec des données pré-calculées de l'intensité Carbon du Groupe et de ses clients. - Mettre en place des dashboards sur Quicksight pour visualiser les résultats. - Développer une API Flask et exposer les calculs via Swagger. - Exploration des données via AWS Athena. - Mise en place de Jupyter Notebooks pour exposer et valider nos premiers résultats de calculs aux métiers. - Scheduler des jobs via CloudWatch et StepFunctions. - Archiver l'ensemble du code dans Git et mettre en place un déploiement automatique via Azure Devops - Mise en place de WebApps sur Azure pour héberger nos API Flask. - Collaborer avec nos clients pour présenter nos calculs et les accompagner. Environnement technique : Spark, Python, Jupyter/ Pytest, Flask, Swagger, AWS Lambda/ Athena/ CloudWatch/ QuickSight/ Batch / S3/ Partionning/ Bucketing, Azure Devops/ Functions/ AppService/ Web Apps.

CDI
Freelance

Offre d'emploi
Ingénieur Big Data - DevOps (H/F)

VISIAN
Publiée le
Apache Kafka
Apache Spark
Docker

3 mois
40k-65k €
Marseille, Provence-Alpes-Côte d'Azur

Orienté Big Data et ayant des compétences dans les domaines listés ci-joint : Kafka, Spark, Hbase, Hive, Hadoop, Jenkins, Ansible, Github, Scala, Python, Linux, Kube, Linux. Objectifs et livrables L’expertise technique sur le Datalake (plateforme Big Data) consistera à : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake : gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de mises en production · Contribuer à l’amélioration continue des outils d’exploitation · Communication auprès des utilisateurs finaux Le consultant devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Freelance

Mission freelance
Data Analystes (Big Data) H/F

Insitoo Freelances
Publiée le
Big Data
MySQL
Python

2 ans
330-375 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Analystes (Big Data) H/F à Lille, Hauts-de-France, France. Les missions attendues par le Data Analystes (Big Data) H/F : Au sein de l’équipe Agile, le Data Analyste devra : Analyser des besoins fonctionnels et les traduire en solutions techniques via SQL Nettoyer, préparer et exposer les données en assurant leur qualité Manipuler les fichiers sous UNIX et HADOOP Suivre le run et gérer les erreurs Optimiser les traitements SQL Compétences requises : Esprit d’équipe et autonomie Maitrise du SQL et de ses optimisations => Obligatoire Bonnes connaissances de l’environnement HADOOP, UNIX et du SHELL Connaissances en Python Concepts de l’agilité Des connaissances de Cloudera/SAS Visual Analytics/DigDash ou Jupyter sont un plus Expérience souhaitée de 2 à 5 ans minimum sur un poste similaire

Freelance

Mission freelance
Senior Data SAP report SAP SuccessFactors H/F

Sqorus
Publiée le
Crystal Reports
Data visualisation
SAP

3 mois
280-580 €
Paris, France

En tant que Lead SAP BI HR Analytics , vous interviendrez sur l’ensemble de la conception et de la définition d’architectures Data. Dans le cadre d'un projet avec un de nos clients, acteur incontournable du tourisme, vous serez en charge du rôle de Lead Data pour assurer le développement et la livraison d'une trentaine (30) de rapports BI à destination de la Direction des Ressources Humaines. Ces rapports auront pour sources SAP SF depuis les modules Employee Central / PMGM / Onboarding et Compensation. Dans le cadre de cette mission, vos responsabilités seront les suivantes : Conseil : Accompagnement du bon déroulement des développements des rapports sous Report dans SAP SuccessFactors. Garant du suivi de projet auprès du client En charge de la vulgarisation et de l'accompagnement aussi bien technique que fonctionnel Technique et Delivery : Collecte, intégration et gestion de données provenant de diverses sources, en utilisant des technologies d'intégration de données. Conception de modèles de données adaptés et développements de rapports et tableaux de bords Rédaction de documentation fonctionnelle et/ou technique Responsable de la garantie et de la qualité du Delivery et des livrables Organisation et pilotage projet (COPIL, COSUI, COPROJ) Accompagnement à la recette Formation d’utilisateurs finaux et équipes projets

Freelance
CDI

Offre d'emploi
Chef de Projet Infrastructure Database H/F

AMAGO EXPERTISE
Publiée le
Big Data
Cloud
Database

12 mois
10k-70k €
Seine-Saint-Denis, France

Amago IT recherche pour l'un de ses clients grands comptes dans le cadre d'une prestation de longue durée, un Chef de Projet Infrastructure spécialité Database H/F Au sein des équipes projets, vous êtes en charge des projets au niveau Groupe d'infrastructure et applicatifs databases (migration Oracle, projet d'infrastructure Cloud, projets de sécurisation database, projets de résilience pour les données,...) dans un contexte international -Conseiller, challenger et accompagner le client dans le choix des solutions technologiques en coordination avec les architectes DBA - Cadrer et prioriser les besoins métiers/IT - Organiser et animer les kickoffs - Superviser le processus de développement, de la conception à la livraison, en veillant au respect des délais, de la qualité et des budgets -Aide au DBA et équipe afin de restructurer les BDDs et améliorer la qualité des données - Animer les instances de gouvernance : comités de pilotage et opérationnels (en anglais) -Reporting

Freelance

Mission freelance
Data Scientist

Hanson Regan Limited
Publiée le
Data science
Python

6 mois
100-420 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Hanson Regan recherche un Data Scientist pour un contrat de 6 mois renouvelable basé à Aix en Provence Compétences et expériences demandées : - Expérience +3 ans en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur) - Expérience sur l'utilisation des LLM (prompt Engineering) - Solides compétences en programmation Python -Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Etre curieux (se) et pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie Data en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe Profil demandé plutôt orienté data analyst s'il vous plaît contactez-moi si cela vous intéresse

Freelance

Mission freelance
Delivery & Data Solutions Director

APYA
Publiée le
Data management
Management

6 mois
450-850 €
Yvelines, France

Le client une entreprise du secteur de l'urbanisme de premier plan dans son secteur, recherche un Directeur des Solutions de Livraison et des Données pour prendre en charge un rôle essentiel au sein de son équipe. Ce poste résulte du départ d'un collaborateur, offrant ainsi une opportunité à un professionnel hautement qualifié. Le titulaire de ce poste aura pour mission de piloter directement le flux de données tout en supervisant les autres flux. Il sera également responsable de la gestion des équipes transversales, y compris des équipes nearshore/offshore de plus de 50 équivalents temps plein (ETPs). Responsabilités : Piloter le flux de données directement et superviser les autres flux au sein de l'entreprise. Gérer efficacement les équipes transversales, y compris les équipes nearshore/offshore, en veillant à ce que les objectifs et les délais soient respectés. Apporter une expertise technique, notamment dans des environnements tels que MS Azure, pour soutenir les initiatives de livraison et de données. Assurer une communication fluide entre les différentes équipes et départements pour garantir la cohérence des livrables. Collaborer étroitement avec d'autres parties prenantes pour comprendre les besoins métier et développer des solutions adaptées. Maintenir un haut niveau de qualité dans la livraison des projets, en assurant la conformité aux normes et aux réglementations en vigueur.

Freelance

Mission freelance
Expert Power BI (H/F)

LeHibou
Publiée le
Data visualisation
Microsoft Office
Microsoft Power BI

6 mois
490-650 €
Paris, France

Notre client dans le secteur Énergie et ressources naturelles recherche un Expert Power BI H/F Descriptif de la mission: Notre client grand compte recherche un expert Power BI. L'objectif de ce projet est de développer un outil digital transverse pour capitaliser et partager les connaissances au sein de la communauté afin de faciliter l'activité de benchmark et d'aide aux décisions d'investissement. Le candidat aura pour mission de structurer et consolider une plateforme multidisciplinaire sous Power Bi sous la supervision de l'équipe d'étude de développements. Le service demandé couvrira les parties suivantes : 1. AMOA : ➢ Finalisation de l’expression de besoins, la rédaction des exigences et l’analyse de l’existant en termes de sourcing et d’outils similaires 2. MOE : ➢ Proposition d’architecture technologique qui tient compte de l’environnement technologique ➢ Mise en œuvre et développement de la solution retenue 3. Encadrement d’une ressource stagiaire (profil Data Analyst)

Freelance

Mission freelance
Data Analyst / Power BI

KUBE Partners S.L. / Pixie Services
Publiée le
Data analysis
Microsoft Power BI
SQL

3 mois
100-410 €
Toulon, Provence-Alpes-Côte d'Azur

Responsabilités : Collaborer avec les clients pour comprendre leurs besoins en matière d'analyse de données. Discuter avec la DSI pour spécifier toutes les règles de gestion Collecter, nettoyer et préparer les données pour l'analyse. Effectuer des analyses approfondies pour identifier les tendances, les modèles et les insights pertinents. Créer des visualisations de données claires et concises pour communiquer les résultats aux clients. Fournir des recommandations stratégiques basées sur les insights obtenus. Animer les réunions Capacité à travailler de manière autonome et à respecter les délais.

Freelance

Mission freelance
PO Data (Dataiku) H/F

LeHibou
Publiée le
Data management
Dataiku

6 mois
460-680 €
Paris, France

Notre client grand compte recherche un PO Data. Définition de la mission et des livrables : Prise en charge des besoins dans le cadre du projet Elaboration des expressions de besoin détaillées, participation aux travaux fonctionnels Rédiger les US (User Stories) Analyse des données avec du Dataiku Accompagnement de la mise en production Animer et participer aux cérémonies agiles Réalisation des supports d’ateliers et des comptes rendus dont il a la charge Users stories dans JIRA à destination de la MOE Datalake Définition de la stratégie de Recette Procédures et cahiers de recette

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous