Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 246 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
Big data engineer

Datapy Group
Publiée le
Apache Kafka
Apache Spark
PySpark

32k-80k €
Île-de-France, France

Nous sommes à la recherche d'un Ingénieur Big Data pour palier au besoins de nos clients. Le candidat retenu sera chargé de concevoir, développer et maintenir l'infrastructure Big Data, ainsi que de travailler sur des projets d'analyse de données complexes. Responsabilités : Concevoir, développer et déployer des solutions Big Data évolutives et robustes. Mettre en place des pipelines de données pour l'acquisition, le stockage et le traitement de grands volumes de données. Travailler en étroite collaboration avec les équipes métier pour comprendre leurs besoins en matière d'analyse de données. Optimiser les performances des systèmes et des applications Big Data. Assurer la sécurité et la confidentialité des données tout au long du processus.

Freelance

Mission freelance
Data Engineer

MOBILE TECH PEOPLE
Publiée le
Azure
PySpark
Python

12 mois
100-410 €
Hauts-de-France, France

Nous recherchons pour le compte d'un de nos clients un Data Engineer en gestion de données Azure, souhaitant contribuer à des projets innovants dans un environnement dynamique et en constante évolution. Vous aurez l'occasion de travailler sur des tâches variées allant de la gestion de base de données SQL sur Azure à l'automatisation des pipelines ETL et au développement de scripts Python pour le web scraping. xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

CDI

Offre d'emploi
Data Scientist orienté Engineering - Partenaire Tech pour les Assureurs – Full remote (H/F)

EASY PARTNER
Publiée le
Apache Spark
AWS Cloud
CI/CD

65k-75k €
Paris, France

Contexte du poste : Nous sommes une entreprise innovante dans le secteur des technologies appliquées à l'assurance, basée dans la région parisienne. Notre mission est d'accompagner les assureurs dans la gestion et l'analyse de leurs risques, en utilisant des solutions SaaS avancées. Nous travaillons sur des projets variés visant à optimiser la souscription d'assurances et la gestion de portefeuille grâce à l'intelligence artificielle. Afin de soutenir notre croissance rapide et nos projets d'expansion internationale, nous recherchons un(e)Data Scientist orienté Engineering pour renforcer notre département Insights. Missions : - Concevoir et implémenter des modèles de Machine Learning pour répondre aux besoins business complexes. - Gérer le cycle de vie complet des modèles, de la conceptualisation à la mise en production. - Être le garant de la qualité du code au sein du département Insights, mettre en place des bonnes pratiques de développement. - Conduire des analyses ad hoc pour éclairer les décisions stratégiques. - Participer à des projets d'innovation et d'expérimentation de nouvelles technologies.

CDI
Freelance

Offre d'emploi
Data Gouvernance

DSI group
Publiée le
Data analysis
Formation

2 ans
45k-62k €
Île-de-France, France

1. Dictionnarisation des Données : • Établir et maintenir un dictionnaire de données pour assurer une compréhension claire et uniforme des termes de données au sein de l'entreprise. • Collaborer avec les équipes techniques et métiers pour identifier, définir et documenter les données. 2. Gouvernance des Données de Production : • Mettre en place des politiques et procédures pour la gestion des données de production, en assurant leur intégrité, confidentialité et disponibilité. • Collaborer avec les équipes IT et métiers pour s'assurer que les données de production sont correctement collectées, stockées, traitées et archivées. 3. Gouvernance des Données Analytiques : • Développer et mettre en œuvre des stratégies pour la gestion des données analytiques, en s'assurant qu'elles sont pertinentes, précises et disponibles pour les analyses. • Travailler en étroite collaboration avec l'équipe des data analysts et data scientists pour optimiser l'utilisation des données analytiques. 4. Collaboration et Communication : • Servir de point de contact principal pour toutes les questions relatives à la gestion des données. • Assurer la communication et la formation des équipes sur les meilleures pratiques de gestion des données.

Freelance

Mission freelance
Dataiku

STHREE SAS pour COMPUTER FUTURES
Publiée le
Apache Spark
Dataiku
Hadoop

3 ans
100-500 €
Paris, France

Nous recherchons pour un de nos clients un Data engineer avec deux ans d’éxpériences à minima sur daitaiku , Ce collaborateur doit maitriser les technos comme Python stack technique du besoin : Python hadoop spark 2 ans a fond de dataiku Localisation : IDF, metro , Télétravail : 2 jours de télétravail Démarrage : asap Tjm : dépend de l’expérience, entre 500 et 600max Quelqu’un qui connait depuis 5 ans la solution NB : Ce besoin n'est pas encore exprimé chez notre client, c'est assez urgent nous pouvons faire passer les entretiens asap ainsi que le démarrage

Freelance

Mission freelance
Data Engineer (H/F) - Paris

Mindquest
Publiée le
Apache Kafka
Apache Spark
Cassandra

6 mois
700 €
Paris, France

Ingestion des données sources via NIFI dans des tables de travail Cassandra ou en parquet sur AWS S3 Développement des Traitements Spark/Scala en lots des données sources ingérées Traitement au quotidien des nouvelles données clients (ajout nouveaux clients Enrichissement au quotidien des données des clients avec des fichiers de scoring et de segmentation (fournis par un autre projet) Traitement toutes les 8 heures des nouvelles ventes avec notamment la mise à jour des ventes auditées ainsi que l’enrichissement des ventes avec les données des clients Ingestion toutes les 8 heures des données des ventes dans Druid Ajout et mise à jour des nouveaux produits des marques avec leur description, leur taille, leurs stocks …. Traitement en temps réel via Kafka/Spark des données sources fournies par les marques dans les topics dédiés : Enrichissement des données des produits des différentes marques en temps réel avec les informations des stocks, des prix Mise à jour temps réel des données des ventes Mise à jour temps réel des données clients Mise à jour des commandes clients Anonymisation des informations clients (RGPD) Mise à jour des stocks disponibles en magasin Exposition des informations des produits en transit (magasin d’origine, magasin destination) afin que les utilisateurs de Luce puissent estimer leurs dates de livraison Traitement et Stockage des données dans Apache Solr et Cassandra Exposition des données traitées dans une API nodejs à travers Cassandra et Solr Ingestion des données des ventes et commandes sur Apache Druid via NIFI Mise en place de tests automatiques afin d’éviter les régressions suite aux nouvelles évolutions Développement de tests unitaires avant déploiement Garantie de la cohérence des données Planification des heures de lancement des différents traitements afin d’éviter d’avoir des données corrompues Déploiement des différents traitements Spark via Jenkins/Livy dans les environnements dédiés Monitoring des Jobs Spark via Yarn et Spark UI avec un système d’alerting via Slack en cas de problème durant les traitements Mise en place de logs qui seront ensuite déposés dans ElasticSearch afin de faciliter la résolution et la recherche des bugs Optimisation des différents traitements Data (optimisation du code Spark, des traitements NIFI) Migration de tous nos workflows NIFI, traitements de données en lots/ temps réel Spark sur Amazon AWS Migration de l’api ainsi que des tables et collections utilisées dans Cassandra Environnement sur AWS Ordonnancement des tâches via Airflow/Python, gestion des différentes dépendances entre les traitements Mise à jour d’une librairie Airflow pour le lancement de nos Jobs Sparks ainsi que le monitoring (vérification des statuts des traitements). Mise en place des capteurs (sensors) nécessaires pour le suivi des statuts des traitements Mise à jour d’une librairie générique Spark pour les jobs d’ingestion via parquet/csv/json

CDI
Freelance

Offre d'emploi
Ingénieur Big Data - DevOps (H/F)

VISIAN
Publiée le
Apache Kafka
Apache Spark
Docker

3 mois
40k-65k €
Marseille, Provence-Alpes-Côte d'Azur

Orienté Big Data et ayant des compétences dans les domaines listés ci-joint : Kafka, Spark, Hbase, Hive, Hadoop, Jenkins, Ansible, Github, Scala, Python, Linux, Kube, Linux. Objectifs et livrables L’expertise technique sur le Datalake (plateforme Big Data) consistera à : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake : gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de mises en production · Contribuer à l’amélioration continue des outils d’exploitation · Communication auprès des utilisateurs finaux Le consultant devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Freelance
CDI

Offre d'emploi
Data Engineer AWS

4 Impact
Publiée le
Apache Spark
AWS Cloud
Scala

12 mois
39k-50k €
Hauts-de-Seine, France

Nous recherchons pour l’un de nos clients un Data Engineer AWS. Contexte de la mission : Au sein de l'équipe chargée de développer des outils internes d’une entité, constituée de 10 personnes : Développeurs back/frond end et Ingénieurs Data, le Data Engineer AWS est en charge de mener à bien un besoin clé du Groupe autour du sujet Zéro Carbone. Affecté à l'équipe métier, nous travaillons en mode Scrum en collaboration avec un autre Data Engineer et un PO pour réaliser les tâches et mener à bien le projet à terme. Missions : - Créer des fonctions AWS Lambda et pour consommer des APIs provenant de l'extérieur (données Gas/Power) et alimenter nos buckets S3 dédiés. - Développer des jobs AWS Batch pour alimenter nos buckets S3 avec des données pré-calculées de l'intensité Carbon du Groupe et de ses clients. - Mettre en place des dashboards sur Quicksight pour visualiser les résultats. - Développer une API Flask et exposer les calculs via Swagger. - Exploration des données via AWS Athena. - Mise en place de Jupyter Notebooks pour exposer et valider nos premiers résultats de calculs aux métiers. - Scheduler des jobs via CloudWatch et StepFunctions. - Archiver l'ensemble du code dans Git et mettre en place un déploiement automatique via Azure Devops - Mise en place de WebApps sur Azure pour héberger nos API Flask. - Collaborer avec nos clients pour présenter nos calculs et les accompagner. Environnement technique : Spark, Python, Jupyter/ Pytest, Flask, Swagger, AWS Lambda/ Athena/ CloudWatch/ QuickSight/ Batch / S3/ Partionning/ Bucketing, Azure Devops/ Functions/ AppService/ Web Apps.

Freelance
CDI

Offre d'emploi
Chef de Projet Infrastructure Database H/F

AMAGO EXPERTISE
Publiée le
Big Data
Cloud
Database

12 mois
10k-70k €
Seine-Saint-Denis, France

Amago IT recherche pour l'un de ses clients grands comptes dans le cadre d'une prestation de longue durée, un Chef de Projet Infrastructure spécialité Database H/F Au sein des équipes projets, vous êtes en charge des projets au niveau Groupe d'infrastructure et applicatifs databases (migration Oracle, projet d'infrastructure Cloud, projets de sécurisation database, projets de résilience pour les données,...) dans un contexte international -Conseiller, challenger et accompagner le client dans le choix des solutions technologiques en coordination avec les architectes DBA - Cadrer et prioriser les besoins métiers/IT - Organiser et animer les kickoffs - Superviser le processus de développement, de la conception à la livraison, en veillant au respect des délais, de la qualité et des budgets -Aide au DBA et équipe afin de restructurer les BDDs et améliorer la qualité des données - Animer les instances de gouvernance : comités de pilotage et opérationnels (en anglais) -Reporting

Freelance

Mission freelance
Data Analystes (Big Data) H/F

Insitoo Freelances
Publiée le
Big Data
MySQL
Python

2 ans
330-375 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Analystes (Big Data) H/F à Lille, Hauts-de-France, France. Les missions attendues par le Data Analystes (Big Data) H/F : Au sein de l’équipe Agile, le Data Analyste devra : Analyser des besoins fonctionnels et les traduire en solutions techniques via SQL Nettoyer, préparer et exposer les données en assurant leur qualité Manipuler les fichiers sous UNIX et HADOOP Suivre le run et gérer les erreurs Optimiser les traitements SQL Compétences requises : Esprit d’équipe et autonomie Maitrise du SQL et de ses optimisations => Obligatoire Bonnes connaissances de l’environnement HADOOP, UNIX et du SHELL Connaissances en Python Concepts de l’agilité Des connaissances de Cloudera/SAS Visual Analytics/DigDash ou Jupyter sont un plus Expérience souhaitée de 2 à 5 ans minimum sur un poste similaire

Freelance

Mission freelance
Senior Data SAP report SAP SuccessFactors H/F

Sqorus
Publiée le
Crystal Reports
Data visualisation
SAP

3 mois
280-580 €
Paris, France

En tant que Lead SAP BI HR Analytics , vous interviendrez sur l’ensemble de la conception et de la définition d’architectures Data. Dans le cadre d'un projet avec un de nos clients, acteur incontournable du tourisme, vous serez en charge du rôle de Lead Data pour assurer le développement et la livraison d'une trentaine (30) de rapports BI à destination de la Direction des Ressources Humaines. Ces rapports auront pour sources SAP SF depuis les modules Employee Central / PMGM / Onboarding et Compensation. Dans le cadre de cette mission, vos responsabilités seront les suivantes : Conseil : Accompagnement du bon déroulement des développements des rapports sous Report dans SAP SuccessFactors. Garant du suivi de projet auprès du client En charge de la vulgarisation et de l'accompagnement aussi bien technique que fonctionnel Technique et Delivery : Collecte, intégration et gestion de données provenant de diverses sources, en utilisant des technologies d'intégration de données. Conception de modèles de données adaptés et développements de rapports et tableaux de bords Rédaction de documentation fonctionnelle et/ou technique Responsable de la garantie et de la qualité du Delivery et des livrables Organisation et pilotage projet (COPIL, COSUI, COPROJ) Accompagnement à la recette Formation d’utilisateurs finaux et équipes projets

CDI

Offre d'emploi
Développeur Back End Senior

Aepsilon
Publiée le
Apache Kafka
Apache Tomcat
J2EE / Java EE

45k-47k €
Valbonne, Provence-Alpes-Côte d'Azur

Vous offririez bien un peu de challenge à votre vie professionnelle, mais vous n’avez pas encore trouvé LE rôle qui va vous donner cette envie de changement ? Il se peut que l’on ait quelque chose à vous proposer :) En effet, nous vous proposons de rejoindre une entreprise à taille humaine, dynamique et bienveillante. Son domaine d’activité : le voyage. Son objectif : simplifier la réservation des billets d’avion grâce à des solutions innovantes. Venons-en au poste : nous recherchons un Développeur back-end senior . Challenger l’architecture de la solution Prendre part aux décisions concernant les évolutions techniques Gérer la migration du back-end historique vers un nouveau back-end (architecture micro services) Définir les bonnes pratiques de développement pour le back-end Définir, développer et maintenir les composants transverses qui constituent le socle technique back-end Participer à l'élaboration de la documentation nécessaire à l’exploitation et au maintien des applications Assurer une veille sur les technologies back Choisir les technologies les plus judicieuses en fonction de son contexte Liste évidemment non exhaustive ! Suivant la méthodologie Scrum, vous travaillerez en étroite collaboration avec deux développeurs back-end et un développeur front-end, un Product Owner et un CTO.

Freelance
CDI

Offre d'emploi
Développeur Backend

VISIAN
Publiée le
J2EE / Java EE
Java
Node.js

1 an
29k-42k €
Montpellier, Occitanie

Notre client, un grand compte du secteur bancaire est à la recherche d'un développeur back pour rejoindre ses équipes. Affinage IT de récits métiers et techniques, conception, développement, analyse d'incidents et maintenance Squads DIPS sur activité de DEV BACK Signature. - Déclinaison du besoin fonctionnel en solution technique, en relation avec les acteurs de la squad et les intervenants transverses (cellule Architecture de CATS, autres squads …). - Réalisation de la solution technique en mode Agile. Assurer les développements et la maintenance des Produits de la SQUAD DIPS - Signature

Freelance

Mission freelance
Data Scientist

Hanson Regan Limited
Publiée le
Data science
Python

6 mois
100-420 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Hanson Regan recherche un Data Scientist pour un contrat de 6 mois renouvelable basé à Aix en Provence Compétences et expériences demandées : - Expérience +3 ans en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur) - Expérience sur l'utilisation des LLM (prompt Engineering) - Solides compétences en programmation Python -Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Etre curieux (se) et pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie Data en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe Profil demandé plutôt orienté data analyst s'il vous plaît contactez-moi si cela vous intéresse

CDI

Offre d'emploi
Développeur Angular

1G-LINK CONSULTING
Publiée le
Angular
J2EE / Java EE

43k-60k €
Paris, France

La prestation consiste à accompagner l'équipe Administrative et Technique en apportant une expertise technique insufissament maîtrisée en interne, notamment sur ce qui concerne Docker/Kubernetes et sur la chaîne d'intégration continue Gitlab CI/CD. En particulier: - Participation au développement des projets demandés à l'équipe. - Participation à la conception technique sur les nouveaux projets - Revue de code et traitement des "merge request" avant que les chefs de projet ne démarrent les tests - Suivi des notes dans Sonar des différentes applications, et proposition de correctifs/évolutions visant à diminuer la dette technique

Freelance

Mission freelance
Delivery & Data Solutions Director

APYA
Publiée le
Data management
Management

6 mois
450-850 €
Yvelines, France

Le client une entreprise du secteur de l'urbanisme de premier plan dans son secteur, recherche un Directeur des Solutions de Livraison et des Données pour prendre en charge un rôle essentiel au sein de son équipe. Ce poste résulte du départ d'un collaborateur, offrant ainsi une opportunité à un professionnel hautement qualifié. Le titulaire de ce poste aura pour mission de piloter directement le flux de données tout en supervisant les autres flux. Il sera également responsable de la gestion des équipes transversales, y compris des équipes nearshore/offshore de plus de 50 équivalents temps plein (ETPs). Responsabilités : Piloter le flux de données directement et superviser les autres flux au sein de l'entreprise. Gérer efficacement les équipes transversales, y compris les équipes nearshore/offshore, en veillant à ce que les objectifs et les délais soient respectés. Apporter une expertise technique, notamment dans des environnements tels que MS Azure, pour soutenir les initiatives de livraison et de données. Assurer une communication fluide entre les différentes équipes et départements pour garantir la cohérence des livrables. Collaborer étroitement avec d'autres parties prenantes pour comprendre les besoins métier et développer des solutions adaptées. Maintenir un haut niveau de qualité dans la livraison des projets, en assurant la conformité aux normes et aux réglementations en vigueur.

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous