Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 690 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Développeur backend confirmé

Deodis
Publiée le
API REST
DevOps
J2EE / Java EE

3 ans
38k-50k €
Montpellier, Occitanie

Missions : Déclinaison du besoin fonctionnel en solution technique, en relation avec les acteurs de la squad et les intervenants transverses (cellule Architecture, autres squads …). Réalisation de la solution technique en mode Agile. Affinage IT de récits métiers et techniques, conception, développement, analyse d'incidents et maintenance Assurer les développements et la maintenance des Produits Potentiellement accès aux données de production pour activité de correction. Compétences demandées : JAVA J2EE, SPRINGBOOT NODEJS Devops : Jenkins / Gitlab / Gitlab CI/CD /XL Release Webservices SOA Dev API REST JSP css - Html - javascript SQL - DB2 Eclipse Tests unitaires / SonarQube Travail en équipe Rigoureux Proactif Expérience méthode Agile Scrum

Freelance
CDI

Offre d'emploi
Product Owner

ICSIS
Publiée le
Agile Scrum
J2EE / Java EE
Méthode Agile

3 ans
38k-50k €
Lille, Hauts-de-France

La mission consiste à : - Elaborer la vision Produit - Animer la Road Map au travers des KPIs d’usage des produits, maîtriser la valeur générée - Identifier un MVP - Accompagner les Métiers afin de définir et de formaliser leurs besoins - Rédiger les US, construire la backlog, suivre son évolution - Préparer et exécuter la recette transverse en étroite relation avec les Métiers et le Scrum Master Compétences demandées : - 5 ans d’expérience en tant que Product Owner dans des contextes internationaux - Expertise Agile (certification souhaitée) - Animation d’équipe - Gestion de la Backlog - Anglais indispensable - Connaissances et bagage techniques appréciés

Freelance

Mission freelance
Ingénieur Data (Spark / Scala) H/F

HAYS MEDIAS
Publiée le
Apache Spark
Oracle
Scala

3 mois
100-640 €
Puteaux, Île-de-France

La Direction des Systèmes d’Information a pour missions de mettre au quotidien à disposition des 25 000 utilisateurs les données et les traitements nécessaires à leur activité, dans le respect des contrats de service; de garantir la sécurité et la pérennité des actifs informatiques du Groupe; d’accompagner le développement commercial du Groupe en France et à l’international ; d’élaborer de nouveaux systèmes d’information, de nouvelles infrastructures techniques et de maintenir les systèmes existants. Sur une architecture Big Data permettant de collecter les données de l’ensemble des Back Office dans un Datalake (cluster Hadoop), le projet consiste à exploiter ces données pour alimenter un Dataware communautaire stockée sur une base Exadata. Cette exploitation est réalisée par la conception de nouveaux traitements Spark/Scala manipulant les données raffinées du DataLake avec des règles métiers décisionnelles. Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : - Conception détaillée, fonctionnelle et technique. - Développements SPARK / SCALA - Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. - Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. - Packaging et déploiement en pre-production et production. - Optimisation des traitements afin de garantir la qualité de service standards du DWG. - Mise en œuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. - Mise en service et accompagnement au déploiement. - Suivi des environnements.

CDI

Offre d'emploi
Data Ingénieur Spark/Scala

TRSB
Publiée le
Apache Spark
Scala

60k-70k €
Orléans, Centre-Val de Loire

Je recherche un Data Ingénieur Spark / Scala Séniorité : à partir de 5 ans d'expérience Localisation : Orléans Télétravail : 3 jours Secteur : Prévoyance / Assurance Il s'agit d'un CDI ! Contexte de recrutement : renforcement équipe Mission : Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : - Conception détaillée, fonctionnelle et technique. - Développements SPARK / SCALA - Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. - Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. - Packaging et déploiement en pre-production et production. - Optimisation des traitements afin de garantir la qualité de service standards du DWG. - Mise en oeuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. - Mise en service et accompagnement au déploiement. - Suivi des environnements. Le consultant devra travailler en étroite collaboration avec le Chef de Projet, responsable du lot et l'équipe de développement du Programme. Une connaissance d'Oracle est nécessaire

Freelance
CDD

Offre d'emploi
Développeur Fullstack Java/ React Forgerock H/F

SMARTPOINT
Publiée le
J2EE / Java EE

3 ans
55k-65k €
Paris, France

, la prestation consistera à contribuer à/au(x) : - Développement des extensions OpenAM en Java ainsi que des APIs Spring. - Développement d'interfaces utilisateurs en React adossées à ces services (mires d'authentification, interfaces de self-service, ...). - Maintien et évolution de la chaîne de CI/CD afin de la rendre plus performante/efficace et autonome. - Choix techniques/d'architecture afin de mettre en place un produit qualitatif répondant aux demandes métier. - Garantir un SLA optimum au vue de la criticité du contexte. - Support N3 Les livrables attendus sont : - Code qualitatif - Testé (unitaires, E2E, intégration, ...) - Documenté - Versionné Les expertises attendues pour réaliser cette prestation sont listées ci-après :  Java  Forgerock

Freelance

Mission freelance
Full Stack Developer - Java / Angular

Orcan Intelligence
Publiée le
Angular
J2EE / Java EE
Selenium

7 mois
300-400 €
Île-de-France, France

Le candidat rejoindra une équipe interne, axée sur le développement et la livraison d'applications cloud natives dans un environnement cloud. Le candidat travaillera directement avec d'autres développeurs, un scrum master et les différents business owners de l'outil. Nous recherchons un membre de l'équipe qui aime apprendre et partager ses connaissances avec l'ensemble de l'équipe. Les prochains défis, se concentrent sur la programmation du backend spring boot, les rapports via jasper reports, le développement et la connexion des api, les tests selenium. Environnement internationale, une bonne commande de l'anglais est impératif.

Freelance

Mission freelance
DEVELOPPEUR JAVA AWS CONFIRME

PARTECK INGENIERIE
Publiée le
Angular
AWS Cloud
J2EE / Java EE

12 mois
100-500 €
Paris, France

Dans le cadre du développement d'un produit d'ingestion automatisé de données, nous sommes actuellement à la recherche d'un développeur backend ayant une forte appétence pour la data et ayant dans la mesure du possible déjà travaillé sur un projet à forts enjeux. L'ensemble de la solution produit est techniquement conçue en lien avec le Tech Lead qui valide l'architecture logicielle à mettre en place sur le cloud AWS. Pour permettre à l'équipe d'être autonome et d'atteindre le mantra "you build it, you run it", le développeur aura notament en charge : - Implémenter les fonctionnalités en accord avec le PO et le Tech Lead - Implémenter les tests unitaires / tests d'intégration / tests de bout en bout - Réaliser les codes reviews en collaboration avec les autres membres de l'équipe - Implémenter l'infrastructure (IaC) si besoin, accompagné du Sysops - Réaliser la maintenance en condition opérationnelle java 8, Angular 8, PostgreSQL, Terraform, Services AWS pour le traitement de la data : SQS, SNS, RDS, S3, Python

Freelance

Mission freelance
Data Engineer GCP Scala Spark

DATSUP
Publiée le
Apache Spark
Google Cloud Platform
Scala

12 mois
100-600 €
Île-de-France, France

Principales responsabilités : - Collecte de données provenant de sources externes - Exploitation des capacités du Datalake (GCP) - Implémentation de la chaîne de traitement - Développement en conformité avec les normes architecturales établies - Élaboration et documentation des user stories - Création de scripts de déploiement - Priorisation de la résolution des anomalies - Contribution à la mise en place de la chaîne de livraison continue - Automatisation des tests fonctionnels - Encadrement et supervision des travaux des ingénieurs de données de l'équipe Environnement technique : GCP, Spark, Kafka, Scala

Freelance
CDI

Offre d'emploi
Architecte Solution Logicielle C++

HIGHTEAM
Publiée le
Ansible
Apache Kafka
Cassandra

3 ans
10k-70k €
Île-de-France, France

Vous souhaitez intervenir sur un service majeur de l'entreprise en tant qu'architecte de solution logicielle, résolvant diverses problématiques. Vous êtes intrépide face aux défis et êtes motivé(e) par la perspective de les surmonter. Vous êtes passionné(e) par les défis complexes de l'intégration et des technologies de pointe. Vous appréciez travailler dans un environnement collaboratif et agile tout en étant capable de travailler de manière autonome. Vous excellez à guider vos équipes vers l'excellence technique et opérationnelle. Vous possédez une expérience substantielle en tant qu'architecte, ayant contribué à des projets d'envergure. Vous avez développé des solutions répondant à des exigences rigoureuses telles que le temps réel, la sécurité et la disponibilité 24/7.

Freelance
CDI

Offre d'emploi
Data Engineering - TALEND / SPARK / SCALA / MSBI

Digistrat consulting
Publiée le
Apache Spark
Hadoop
Microsoft Power BI

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : L'entité a pour charge la maintenance, le support et l'évolution de l'outil concernant le pilotage financier de la banque, des directions centrales et de la facturation interne du groupe. Les outils sont basés sur les technologies Big Data pour le stockage, Talend et Spark/Scala pour les traitements, la suite MSBI SQL Server et cube SSAS pour l'analyse mutlidimensionnelle et enfin du Power BI pour la restitution. Le Bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - Support de l'application (notamment lors des clôtures mensuelles) - La maintenance évolutive - La conception et l'implémentation de nouvelles fonctionnalités - La refonte technique - La migration de Talend vers Spark/scala Environnement anglophone 2 - Livrables attendus Les livrables attendus sont : - Optimisation des performances - Le support de l'application et la documentation - La livraison des evolutions - La livraison des nouvelles fonctions demandées dans le cadre des projets.

Freelance
CDI

Offre d'emploi
Data scientist (expertise series temporelles) senior

skiils
Publiée le
Python

12 mois
10k-71k €
Paris, France

Data Scientist expérimenté pour rejoindre notre équipe logistique et transport. En tant que Data Scientist, vous jouerez un rôle crucial dans l'analyse des données, le développement de modèles d'IA en production, et la fourniture d'informations pour optimiser divers aspects de nos opérations de chaîne d'approvisionnement. Nous accueillons les candidats ayant une expertise dans les problèmes de prévision sachant tirer parti des données pour orienter les décisions commerciales. Activités et tâches : -Analyser de grands ensembles de données pour identifier les motifs, tendances et insights pertinents pour le département respectif de la chaîne d'approvisionnement. -Développer des modèles prédictifs et des algorithmes d'apprentissage automatique pour optimiser les processus liés à la logistique et le transport. -Développer des stratégies d'optimisation pour tirer parti des différents insights et fournir des recommandations éclairées à l'entreprise. -Collaborer avec des équipes pluridisciplinaires comprenant la direction de la chaîne d'approvisionnement, l'ingénierie et le développement de produits pour aligner les efforts de données et d'IA avec les objectifs commerciaux. -Concevoir et mettre en œuvre des outils de surveillance des modèles pour suivre les performances des modèles et mesurer l'efficacité des stratégies de chaîne d'approvisionnement. -Évaluer continuellement et améliorer les modèles et méthodologies existants pour améliorer la précision et l'efficacité. -Communiquer les résultats et les recommandations aux parties prenantes grâce à des présentations et des rapports clairs et concis. -Rester informé des tendances de l'industrie et des technologies émergentes en science des données et gestion de la chaîne d'approvisionnement.

Freelance

Mission freelance
Data engineer PYTHON / GCP

LK TECHNOLOGY
Publiée le
Google Cloud Platform
Python

6 mois
100-450 €
Lille, Hauts-de-France

Nous recherchons un Data engineer pour une mission chez notre client qui active dans le secteur du retail : Le projet est divisé en 2 modules techniques : une API qui fournit une décision de contrôle à tous les utilisateurs du système informatique ADEO (WMS), basée sur notre algorithme, un ensemble de pipelines de données alimentés à partir de jeux de données BigQuery, alimentant un magasin de fonctionnalités. Ce feature store est ensuite utilisé par notre API et pour entraîner notre modèle prédictif. Le prochain collaborateur aura pour mission de développer et maintenir ces deux modules. Responsabilités : Travailler avec l'équipe de développement pour concevoir et mettre en œuvre des solutions de données modernes et évolutives en utilisant une gamme de nouvelles technologies émergentes. Travailler avec des techniques Agile et DevOps ainsi que des approches d'implémentation dans la livraison. Concevoir et documenter des modèles de données qui soutiennent les produits d'IA. Orchestrer les pipelines de données. Gérer et être responsable de la qualité des données. Concevoir et documenter des API qui soutiennent les produits d'IA. Travailler en étroite collaboration avec les scientifiques des données, les ingénieurs en ML et les équipes DevOps/SRE.

Freelance
CDI

Offre d'emploi
Expert Python / Golang / Kubernetes: maintenance et évolution de la plateforme IA

VISIAN
Publiée le
Go (langage)
Kubernetes
Python

3 ans
10k-118k €
Montreuil, Île-de-France

Dans le cadre de sa prestation, l'intervenant externe évoluera au sein d'une direction axée sur la Data, plus précisément dans le domaine de la livraison d'IA. Cette entité accompagne les différents départements et les branches internationales dans leurs projets de science des données, depuis la conceptualisation des cas d'utilisation jusqu'à leur déploiement effectif. L'équipe, caractérisée par son dynamisme et son caractère international, possède un profil rappelant celui d'une start-up tout en étant intégrée à une grande entreprise. Elle est composée d'experts en science des données spécialisés en apprentissage automatique (vision par ordinateur, traitement du langage naturel, scoring), d'un groupe d'ingénieurs en apprentissage automatique capable d'assister les scientifiques des données lors de l'industrialisation des modèles développés (de la phase de prototypage à la mise en production), ainsi que d'une équipe dédiée aux projets d'IA. Dans le cadre de ses missions, l'équipe de livraison d'IA met à disposition des lignes métiers une plateforme de science des données , qui inclut : Une plateforme d'exploration et de développement Python, développée en interne par une équipe spécialisée. Un framework pour l'industrialisation des modèles de science des données, accompagné d'une librairie interne "pyPF" simplifiant le travail des scientifiques des données. Une plateforme d'exécution des modèles de science des données, Un outil de gestion de communauté

Freelance
CDI
CDD

Offre d'emploi
Dev Python Forecasting

Gentis Recruitment SAS
Publiée le
Databricks
Kubernetes
Python

3 ans
10k-80k €
Paris, France

Nous recherchons un(e) développeur(se) python passionné(e) pour rejoindre notre équipe et contribuer à la création d'une librairie Python (un SDK) à destination de nos data engineers et de nos data scientists. Cette librairie servira de base à nos équipes Quants pour qu'ils développent des modèles avancés de prévision de la consommation et de la production d'énergie. Le SDK fournira le niveau d'abstraction requis afin d'assurer une séparation claire entre la préparation des données, le développement des modèles (exploration, entraînement) et les besoins en infrastructure sous-jacents. Le profil idéal est : - Un(e) passionné(e) du développement Python, capable de jongler avec les bibliothèques et les frameworks. - Un(e) geek qui adore résoudre des énigmes algorithmiques et trouver des solutions élégantes. - Un(e) artisan du code qui sait comment rendre les systèmes scalables et performants. - Quelqu’un qui comprend les enjeux du MLOps et qui a idéalement déjà navigué dans l’univers de Databricks/SageMaker. Le poste requiert une maîtrise avancée de Python, avec une solide expérience dans le développement de librairies et de packages. Une expérience préalable autour de Feature Stores/Model Registries est un plus certain. Contexte XXXX est un acteur majeur de la transition énergétique vers la neutralité carbone, qui investit massivement dans la digitalisation et la modernisation de son système d’information. Le groupe a récemment entrepris de créer une plateforme dédiée au forecasting, qui s’appuie sur l’intelligence artificielle, le big data et les données météorologiques pour optimiser la gestion des risques et la performance des activités Supply et Renewables.

Freelance
CDI

Offre d'emploi
AI/Data Science Engineer 5 jours/semaine Paris

CAPEST conseils
Publiée le
Google Cloud Platform
Google Colab
Jupyter Notebook

3 mois
10k-181k €
Paris, France

Nous recherchons un Freelance “Data Science/AI Engineer” pour faire partie de notre équipe et avoir un impact direct sur notre produit et le monde de la finance durable. Responsabilités : Travailler avec l’équipe tech pour intégrer des solutions d’intelligence artificielle dans les systèmes existants. Veille technologique sur l’IA générative et les plateformes de l’écosystème. Idéation, création et tests de nouveaux modèle d’IA en rapport avec nos produits ESG. Reportez directement à notre CTO. Missions: Une première mission de 2/3 semaine pour apprendre à se connaître et valider le fit. Des missions plus périodiques. 5 jours / mois. Exigences Connaissance pratique de l’anglais. C’est notre langue de travail. Vous êtes le candidat idéal si vous Avez une expérience et une expertise dans le domaine de l’IA (3 ans et +), NLP, LLMs, Prompt engineering. Possédez des bases solides en Python et êtes familier avec les outils tels que Jupyter, Colab. Etes familier avec le concept de RAG (Retrieval-Augmented Generation). Avez de l’expérience dans l’application de NLP à l’ingestion de documents. Êtes désireux d’apprendre et d’expérimenter de nouvelles technologies et outils. Avez une passion pour la résolution de problèmes et un esprit curieux. Pouvez communiquer efficacement des concepts complexes à des publics divers. Aimez travailler en collaboration dans un environnement dynamique de startup. Points bonus si vous Avez de l’expérience avec la plateforme Google Cloud AI. Avez un portfolio présentant vos projets de science des données. Veuillez soumettre votre CV, lettre de motivation et tout autre lien pertinent. Nous sommes impatients de vous lire ! 1 entretien CTO 1 case study

Freelance

Mission freelance
Développeur Java / C++ ou Developpeur Python / C++ - Sophia Antipolis

WorldWide People
Publiée le
C/C++
Java
Python

12 mois
290-300 €
Sophia Antipolis 1, Provence-Alpes-Côte d'Azur

Développeur Java / C++ ou Developpeur Python / C++ - Sophia Antipolis 1.Développeur Java / C++ Mission: Proposer une solution technique Participation aux validations et test de performance Produit de la documentation technique Connaissances: C++ / Java Agilité scrum / sAfe Profil ideal : Proactif , communiquant,analytique, esprit d'equipe, Environnement anglophone Developpeur Python / C++ Rôles et responsabilités du poste En tant que membre de notre équipe technique, vous assumerez le rôle de développeur expérimenté. Vous participerez à la conception et à l'amélioration de nos outils de construction internes C/C++ et de l'infrastructure de développement. Vous serez impliqué dans l'extension des services de l'équipe en apportant votre expertise sur les outils de construction Java et en aidant à la programmation. Les principales responsabilités comprennent : · Concevoir et améliorer les outils de construction internes pour rationaliser les processus de développement et améliorer l'expérience de développement local. · Fournir un support à nos clients. · Collaborer avec des équipes interfonctionnelles pour assurer une intégration sans heurts dans le flux de développement. Participation à la phase de validation/acceptation du cycle de vie du produit, assurant les ajustements nécessaires pour finaliser le produit. Documenter les nouvelles fonctionnalités ou mettre à jour celles existantes pour nos utilisateurs du monde entier. À propos du candidat idéal Expérience avérée en tant que développeur Python avec une solide formation technique. Compilation C++ GNU/Linux : concepts de gestion des dépendances, liaison de bibliothèques, etc. · La connaissance des outils de construction Java est un plus pour cette mission. Systèmes GNU/Linux et scripts shell Linux Capacité à travailler dans un environnement dynamique et rapide avec une mentalité centrée sur le client. Familier avec le travail en mode Agile / Cadre d'Agilité Évolutive (SAFE) Proactif avec une attitude positive Environnement anglophone

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous