Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 464 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
développeur python spark

Innov and Co
Publiée le
Databricks
PySpark
Python

12 mois
100-540 €
Boulogne-Billancourt, Île-de-France

Package pyspark Documentation technique Compétences techniques PYTHON / PYSPARK / SPARK - Confirmé - Impératif Databricks/ datafactory/ azure devops - Confirmé - Impératif Integration GIT - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Description détaillée Dans le cadre de la mise en place du projet Data Finance nous recherchons un data engineer confirmé. - Contexte : le projet Data Finance à pour objectif de mettre a disposition des données consolidé de différente source (base de données relationnelle, SAP , base de données Iaas) dans un modèle de donnée modélisé en Etoile a des fins d'analyse financier. - Environnement technique : Azure DataFactory, Databricks, Pyspark, SQL , Azure devops, Blob Storage. - Mission du candidat : Développer des pipeline d'ingestion des données dans le datalake avec datafctory Développer des flux de transformation de données via Python/spark/ Pyspark Databricks. Mettre en place des pipeline CICD azure devops Participé au re factoring du code existant Être garant de la qualité du code et le bon respect des norme de développement Mis en place des test unitaire. Mise en place du monitoring et de la supervision de l'application datafinance . - Compétences requises : - Une bonne maitrise SQL / Pyspark / SPARK. -Avoir au moins 4/5 ans d'expérience en tant que Data engineer / utilisation de databricks. - Une connaissance environnement Cloud (Microsoft Azure), GIT, Devops - Une bonne communication et être fort de proposition. - Connaissance des bonnes pratique de développement.

Freelance

Mission freelance
Ingénieur Développement Data Spark Scala expérimenté

CAT-AMANIA
Publiée le
Agile Scrum
Apache Spark
ITIL

3 mois
100-530 €
Puteaux, Île-de-France

Notre client du domaine de l'Assurance recherche un profil Ingénieur Développement Spark Scala Expérimenté (+10 ans d'expérience). Sur une architecture Big Data permettant de collecter les données de l’ensemble des Back Office dans un Datalake (cluster Hadoop), le projet consiste à exploiter ces données pour alimenter un Dataware communautaire stockée sur une base Exadata. Cette exploitation est réalisée par la conception de nouveaux traitements Spark/Scala manipulant les données raffinées du DataLake avec des règles métiers décisionnelles.

Freelance
CDI

Offre d'emploi
Data engineer scala spark

CELAD
Publiée le
Apache Spark
Scala

2 ans
50k-65k €
Paris, France

Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : - Conception détaillée, fonctionnelle et technique. - Développements SPARK / SCALA - Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. - Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. - Packaging et déploiement en pre-production et production. - Optimisation des traitements afin de garantir la qualité de service standards du DWG. - Mise en œuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. - Mise en service et accompagnement au déploiement. - Suivi des environnements. Le consultant devra travailler en étroite collaboration avec le Chef de Projet, responsable du lot et l'équipe de développement du Programme. Une connaissance d'Oracle est nécessaire Une expérience >5 ans sur des technologies SPARK & SCALA est nécessaire Une connaissance de contexte technologique similaire est un plus

Freelance

Mission freelance
Ingénieur Data (Spark / Scala) H/F

HAYS MEDIAS
Publiée le
Apache Spark
Oracle
Scala

3 mois
100-640 €
Puteaux, Île-de-France

La Direction des Systèmes d’Information a pour missions de mettre au quotidien à disposition des 25 000 utilisateurs les données et les traitements nécessaires à leur activité, dans le respect des contrats de service; de garantir la sécurité et la pérennité des actifs informatiques du Groupe; d’accompagner le développement commercial du Groupe en France et à l’international ; d’élaborer de nouveaux systèmes d’information, de nouvelles infrastructures techniques et de maintenir les systèmes existants. Sur une architecture Big Data permettant de collecter les données de l’ensemble des Back Office dans un Datalake (cluster Hadoop), le projet consiste à exploiter ces données pour alimenter un Dataware communautaire stockée sur une base Exadata. Cette exploitation est réalisée par la conception de nouveaux traitements Spark/Scala manipulant les données raffinées du DataLake avec des règles métiers décisionnelles. Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : - Conception détaillée, fonctionnelle et technique. - Développements SPARK / SCALA - Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. - Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. - Packaging et déploiement en pre-production et production. - Optimisation des traitements afin de garantir la qualité de service standards du DWG. - Mise en œuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. - Mise en service et accompagnement au déploiement. - Suivi des environnements.

Freelance
CDI

Offre d'emploi
Chef de projet MOE Big Data

ENGIT
Publiée le
Apache Kafka
Apache Spark
API REST

3 mois
10k-56k €
Villejuif, Île-de-France

La mission est le pilotage d’un projet stratégique en cours, projet de migration de la plateforme Cloudera CDH vers CDP. Dans ce cadre : Il faut avoir une expérience très significative en pilotage de projet. Connaitre les aspects batch et tps réel sur les outils Big Data, particulièrement Spark, HBASE et KAFKA, et API REST. Être capable de challenger le fournisseur de la nouvelle plateforme. Big Data 4 SPARK 3 HBASE 3 KAFKA 3 API REST 3 Le projet comporte 3 jours de TT et se situe dans le 94

CDI

Offre d'emploi
Data Ingénieur Spark/Scala

TRSB
Publiée le
Apache Spark
Scala

60k-70k €
Orléans, Centre-Val de Loire

Je recherche un Data Ingénieur Spark / Scala Séniorité : à partir de 5 ans d'expérience Localisation : Orléans Télétravail : 3 jours Secteur : Prévoyance / Assurance Il s'agit d'un CDI ! Contexte de recrutement : renforcement équipe Mission : Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : - Conception détaillée, fonctionnelle et technique. - Développements SPARK / SCALA - Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. - Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. - Packaging et déploiement en pre-production et production. - Optimisation des traitements afin de garantir la qualité de service standards du DWG. - Mise en oeuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. - Mise en service et accompagnement au déploiement. - Suivi des environnements. Le consultant devra travailler en étroite collaboration avec le Chef de Projet, responsable du lot et l'équipe de développement du Programme. Une connaissance d'Oracle est nécessaire

Freelance

Mission freelance
Data Engineer GCP Scala Spark

DATSUP
Publiée le
Apache Spark
Google Cloud Platform
Scala

12 mois
100-600 €
Île-de-France, France

Principales responsabilités : - Collecte de données provenant de sources externes - Exploitation des capacités du Datalake (GCP) - Implémentation de la chaîne de traitement - Développement en conformité avec les normes architecturales établies - Élaboration et documentation des user stories - Création de scripts de déploiement - Priorisation de la résolution des anomalies - Contribution à la mise en place de la chaîne de livraison continue - Automatisation des tests fonctionnels - Encadrement et supervision des travaux des ingénieurs de données de l'équipe Environnement technique : GCP, Spark, Kafka, Scala

Freelance
CDI

Offre d'emploi
Data scientist (expertise series temporelles) senior

skiils
Publiée le
Python

12 mois
10k-71k €
Paris, France

Data Scientist expérimenté pour rejoindre notre équipe logistique et transport. En tant que Data Scientist, vous jouerez un rôle crucial dans l'analyse des données, le développement de modèles d'IA en production, et la fourniture d'informations pour optimiser divers aspects de nos opérations de chaîne d'approvisionnement. Nous accueillons les candidats ayant une expertise dans les problèmes de prévision sachant tirer parti des données pour orienter les décisions commerciales. Activités et tâches : -Analyser de grands ensembles de données pour identifier les motifs, tendances et insights pertinents pour le département respectif de la chaîne d'approvisionnement. -Développer des modèles prédictifs et des algorithmes d'apprentissage automatique pour optimiser les processus liés à la logistique et le transport. -Développer des stratégies d'optimisation pour tirer parti des différents insights et fournir des recommandations éclairées à l'entreprise. -Collaborer avec des équipes pluridisciplinaires comprenant la direction de la chaîne d'approvisionnement, l'ingénierie et le développement de produits pour aligner les efforts de données et d'IA avec les objectifs commerciaux. -Concevoir et mettre en œuvre des outils de surveillance des modèles pour suivre les performances des modèles et mesurer l'efficacité des stratégies de chaîne d'approvisionnement. -Évaluer continuellement et améliorer les modèles et méthodologies existants pour améliorer la précision et l'efficacité. -Communiquer les résultats et les recommandations aux parties prenantes grâce à des présentations et des rapports clairs et concis. -Rester informé des tendances de l'industrie et des technologies émergentes en science des données et gestion de la chaîne d'approvisionnement.

Freelance

Mission freelance
Data engineer PYTHON / GCP

LK TECHNOLOGY
Publiée le
Google Cloud Platform
Python

6 mois
100-450 €
Lille, Hauts-de-France

Nous recherchons un Data engineer pour une mission chez notre client qui active dans le secteur du retail : Le projet est divisé en 2 modules techniques : une API qui fournit une décision de contrôle à tous les utilisateurs du système informatique ADEO (WMS), basée sur notre algorithme, un ensemble de pipelines de données alimentés à partir de jeux de données BigQuery, alimentant un magasin de fonctionnalités. Ce feature store est ensuite utilisé par notre API et pour entraîner notre modèle prédictif. Le prochain collaborateur aura pour mission de développer et maintenir ces deux modules. Responsabilités : Travailler avec l'équipe de développement pour concevoir et mettre en œuvre des solutions de données modernes et évolutives en utilisant une gamme de nouvelles technologies émergentes. Travailler avec des techniques Agile et DevOps ainsi que des approches d'implémentation dans la livraison. Concevoir et documenter des modèles de données qui soutiennent les produits d'IA. Orchestrer les pipelines de données. Gérer et être responsable de la qualité des données. Concevoir et documenter des API qui soutiennent les produits d'IA. Travailler en étroite collaboration avec les scientifiques des données, les ingénieurs en ML et les équipes DevOps/SRE.

Freelance
CDI

Offre d'emploi
Expert Python / Golang / Kubernetes: maintenance et évolution de la plateforme IA

VISIAN
Publiée le
Go (langage)
Kubernetes
Python

3 ans
10k-118k €
Montreuil, Île-de-France

Dans le cadre de sa prestation, l'intervenant externe évoluera au sein d'une direction axée sur la Data, plus précisément dans le domaine de la livraison d'IA. Cette entité accompagne les différents départements et les branches internationales dans leurs projets de science des données, depuis la conceptualisation des cas d'utilisation jusqu'à leur déploiement effectif. L'équipe, caractérisée par son dynamisme et son caractère international, possède un profil rappelant celui d'une start-up tout en étant intégrée à une grande entreprise. Elle est composée d'experts en science des données spécialisés en apprentissage automatique (vision par ordinateur, traitement du langage naturel, scoring), d'un groupe d'ingénieurs en apprentissage automatique capable d'assister les scientifiques des données lors de l'industrialisation des modèles développés (de la phase de prototypage à la mise en production), ainsi que d'une équipe dédiée aux projets d'IA. Dans le cadre de ses missions, l'équipe de livraison d'IA met à disposition des lignes métiers une plateforme de science des données , qui inclut : Une plateforme d'exploration et de développement Python, développée en interne par une équipe spécialisée. Un framework pour l'industrialisation des modèles de science des données, accompagné d'une librairie interne "pyPF" simplifiant le travail des scientifiques des données. Une plateforme d'exécution des modèles de science des données, Un outil de gestion de communauté

Freelance
CDI
CDD

Offre d'emploi
Dev Python Forecasting

Gentis Recruitment SAS
Publiée le
Databricks
Kubernetes
Python

3 ans
10k-80k €
Paris, France

Nous recherchons un(e) développeur(se) python passionné(e) pour rejoindre notre équipe et contribuer à la création d'une librairie Python (un SDK) à destination de nos data engineers et de nos data scientists. Cette librairie servira de base à nos équipes Quants pour qu'ils développent des modèles avancés de prévision de la consommation et de la production d'énergie. Le SDK fournira le niveau d'abstraction requis afin d'assurer une séparation claire entre la préparation des données, le développement des modèles (exploration, entraînement) et les besoins en infrastructure sous-jacents. Le profil idéal est : - Un(e) passionné(e) du développement Python, capable de jongler avec les bibliothèques et les frameworks. - Un(e) geek qui adore résoudre des énigmes algorithmiques et trouver des solutions élégantes. - Un(e) artisan du code qui sait comment rendre les systèmes scalables et performants. - Quelqu’un qui comprend les enjeux du MLOps et qui a idéalement déjà navigué dans l’univers de Databricks/SageMaker. Le poste requiert une maîtrise avancée de Python, avec une solide expérience dans le développement de librairies et de packages. Une expérience préalable autour de Feature Stores/Model Registries est un plus certain. Contexte XXXX est un acteur majeur de la transition énergétique vers la neutralité carbone, qui investit massivement dans la digitalisation et la modernisation de son système d’information. Le groupe a récemment entrepris de créer une plateforme dédiée au forecasting, qui s’appuie sur l’intelligence artificielle, le big data et les données météorologiques pour optimiser la gestion des risques et la performance des activités Supply et Renewables.

Freelance

Mission freelance
INGENIEUR DE PRODUCTION / CHARGE D’INTEGRATION– AIX EN PROVENCE H/F

Acpqualife
Publiée le
Apache Tomcat
Control-M
DAT

1 an
450-470 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Quel poste proposons-nous ? Dans le cadre de notre développement en région PACA, nous recherchons un Ingénieur Chargé d’Applications / Intégrations (H/F) pour intervenir chez un client grand compte basé à 15 min d’Aix-en-Provence. Le collaborateur intégrera le service « Intégration et Exploitation des Applications » dans la Direction de l’Exploitation. Vos missions consisteront notamment à : Conception d’architecture technique en prenant en compte la résilience et redondance pour répondre à la disponibilité des services en production, Clusterisation Architecture technique orientée middleware et rédaction des DAT Déployer des applications en PREPRODUCTION et PRODUCTION au sein d’un périmètre sensible à haut niveau de sécurité. Concevoir et réaliser les changements complexes afin d'assurer la disponibilité et de la continuité de service du SI. Gérer des incidents N2 et ou N3. Assurer le maintien en conditions opérationnelles des applications. Veiller au maintien de la sécurité opérationnelle. Alimenter et faire respecter le référentiel de connaissance et de bonnes pratiques, MAJ du référentiel documentaire. Accessible : 2 jours de télétravail et 3 jours de présentiel – 1er moins intégration en présentiel

Freelance
CDI

Offre d'emploi
AI/Data Science Engineer 5 jours/semaine Paris

CAPEST conseils
Publiée le
Google Cloud Platform
Google Colab
Jupyter Notebook

3 mois
10k-181k €
Paris, France

Nous recherchons un Freelance “Data Science/AI Engineer” pour faire partie de notre équipe et avoir un impact direct sur notre produit et le monde de la finance durable. Responsabilités : Travailler avec l’équipe tech pour intégrer des solutions d’intelligence artificielle dans les systèmes existants. Veille technologique sur l’IA générative et les plateformes de l’écosystème. Idéation, création et tests de nouveaux modèle d’IA en rapport avec nos produits ESG. Reportez directement à notre CTO. Missions: Une première mission de 2/3 semaine pour apprendre à se connaître et valider le fit. Des missions plus périodiques. 5 jours / mois. Exigences Connaissance pratique de l’anglais. C’est notre langue de travail. Vous êtes le candidat idéal si vous Avez une expérience et une expertise dans le domaine de l’IA (3 ans et +), NLP, LLMs, Prompt engineering. Possédez des bases solides en Python et êtes familier avec les outils tels que Jupyter, Colab. Etes familier avec le concept de RAG (Retrieval-Augmented Generation). Avez de l’expérience dans l’application de NLP à l’ingestion de documents. Êtes désireux d’apprendre et d’expérimenter de nouvelles technologies et outils. Avez une passion pour la résolution de problèmes et un esprit curieux. Pouvez communiquer efficacement des concepts complexes à des publics divers. Aimez travailler en collaboration dans un environnement dynamique de startup. Points bonus si vous Avez de l’expérience avec la plateforme Google Cloud AI. Avez un portfolio présentant vos projets de science des données. Veuillez soumettre votre CV, lettre de motivation et tout autre lien pertinent. Nous sommes impatients de vous lire ! 1 entretien CTO 1 case study

Freelance

Mission freelance
Développeur Java / C++ ou Developpeur Python / C++ - Sophia Antipolis

WorldWide People
Publiée le
C/C++
Java
Python

12 mois
290-300 €
Sophia Antipolis 1, Provence-Alpes-Côte d'Azur

Développeur Java / C++ ou Developpeur Python / C++ - Sophia Antipolis 1.Développeur Java / C++ Mission: Proposer une solution technique Participation aux validations et test de performance Produit de la documentation technique Connaissances: C++ / Java Agilité scrum / sAfe Profil ideal : Proactif , communiquant,analytique, esprit d'equipe, Environnement anglophone Developpeur Python / C++ Rôles et responsabilités du poste En tant que membre de notre équipe technique, vous assumerez le rôle de développeur expérimenté. Vous participerez à la conception et à l'amélioration de nos outils de construction internes C/C++ et de l'infrastructure de développement. Vous serez impliqué dans l'extension des services de l'équipe en apportant votre expertise sur les outils de construction Java et en aidant à la programmation. Les principales responsabilités comprennent : · Concevoir et améliorer les outils de construction internes pour rationaliser les processus de développement et améliorer l'expérience de développement local. · Fournir un support à nos clients. · Collaborer avec des équipes interfonctionnelles pour assurer une intégration sans heurts dans le flux de développement. Participation à la phase de validation/acceptation du cycle de vie du produit, assurant les ajustements nécessaires pour finaliser le produit. Documenter les nouvelles fonctionnalités ou mettre à jour celles existantes pour nos utilisateurs du monde entier. À propos du candidat idéal Expérience avérée en tant que développeur Python avec une solide formation technique. Compilation C++ GNU/Linux : concepts de gestion des dépendances, liaison de bibliothèques, etc. · La connaissance des outils de construction Java est un plus pour cette mission. Systèmes GNU/Linux et scripts shell Linux Capacité à travailler dans un environnement dynamique et rapide avec une mentalité centrée sur le client. Familier avec le travail en mode Agile / Cadre d'Agilité Évolutive (SAFE) Proactif avec une attitude positive Environnement anglophone

Freelance

Mission freelance
Développeur Full Stack .Net/Angular/Python Sénior

Nicholson SAS
Publiée le
.NET CORE
Angular
Python

3 ans
500-600 €
Paris, France

Bonjour, Nous recherchons un developpeur fullstack maitrisant python, angular et .net C#. Vos missions au sein de notre client seront les suivantes: Ø Développer des composants, services et fonctions de notre moteur de recherche et de recherche conversationnel basé sur l’intelligence artificiel (Generative AI). Ø Participer aux réunions SCRUM (daily, review…) et collaborer activement avec l’équipe au sein des sprints de 2 semaines (Scrum) Ø Participer activement avec les autres développeurs et le Techlead à la conception, l’évaluation des charges de réalisation du front-office et back-office du produit. Ø Réaliser des développements selon une stratégie de déploiement sur le CLOUD Ø Réaliser des développements dans les règles de l’art : o Participer aux réunions des équipes de développement et s’assurer que le code réalisé (frontend et backend et de l’implémentation des flux de données) est en phase avec les bonnes pratiques et les consignes en termes de choix de composants. o Faire du mentorat et promouvoir les bonnes pratiques de développement frontend et backend en partageant le savoir avec les autres développeurs de l’équipe. o S’intéresser aux contraintes d’intégration amont et aval des composants implémentés afin de réaliser un interfaçage en étroite relation avec les autres développeurs Dates de mission: ASAP pour 3 mois renouvelable sur du long terme Tarif: 500-600€ ht selon profil Lieu: Paris centre avec 10 jours de remote par mois Pas de sous traitance merci ! Nicholson

CDI

Offre d'emploi
Consultant BI (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Airflow
AWS Cloud
BigQuery

40k-50k €
Lille, Hauts-de-France

💼 Missions pour le Consultant BI : Développement et optimisation : Concevoir et déployer des solutions BI en utilisant Tableau, Power BI, SQL , Python, et plus, pour répondre aux besoins des clients. Analyse de données : Utiliser AWS, DBT, Databricks, GCP ( BigQuery ), pour l'analyse et la transformation des données. Automatisation des processus : Mettre en place des pipelines de données automatisés avec Docker, Airflow, et Git. Surveillance et optimisation : Utiliser Datadog, Looker, SAP BO, Cognos , pour surveiller les performances et optimiser les systèmes. Expertise technique : Fournir des conseils d'expert sur SQL Server, Cubes , SSIS, SSRS, SSAS , pour améliorer les processus et les performances.

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous