Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 417 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Data scientist Sénior (Quasi full remote Paris ou Bordeaux)

SURICATE IT
Publiée le
Big Data
Machine Learning
Python

36 mois
100-630 €
Paris, France

Votre principale mission, au sein de nos équipes, sera : le prototypage, l’itération, et la mise en production des algorithmes 2 jours de présentiel à Paris ou Bordeaux Mission a pourvoir ASAP Mission très longue Un eexpérience de mise en prod est indispensable pour ce poste Expérience en Start-up et / ou Scale-up appréciée Votre principale mission, au sein de nos équipes, sera : le prototypage, l’itération, et la mise en production des algorithmes 2 jours de présentiel à Paris ou Bordeaux Mission a pourvoir ASAP Mission très longue Un eexpérience de mise en prod est indispensable pour ce poste Expérience en Start-up et / ou Scale-up appréciée

Freelance

Mission freelance
Chef de projet Data - GED

Groupe Aptenia
Publiée le
Azure
Big Data
GED (Gestion Électronique des Documents)

6 mois
100-450 €
Lyon, Auvergne-Rhône-Alpes

Contexte de la mission : Au sein du pôle SI, composé de 2 personnes, de la Direction des Expertises Techniques et du Patrimoine, vous interviendrez sur les activités suivantes : Piloter le projet de mise en place d'un puits de données. Accompagner le transfert des applications SIG. Gérer les projets de GED, notamment le transfert des GED contractuelles et l'allotissement d'autres solutions de GED. Coordonner les activités liées à ces sujets, y compris les prestations avec des fournisseurs. Être le/la référent(e) technique sur les projets data et documentation en lien avec les métiers Objectifs/Descriptif de mission : Apporter du support et de l’expertise sur les sujets Data et Documentation.

Freelance

Mission freelance
Expert NoSQL (F/H)

NAVIGACOM
Publiée le
Big Data
CI/CD
Cloud

12 mois
100-900 €
Yvelines, France

Missions Pour l’un de nos clients du secteur bancaire, vous intervenez sur des missions à forte valeur ajoutée en tant qu’Expert NoSQL. avec Expertise Kubernetes et GitOps, vous serez responsable de plusieurs aspects cruciaux du projet Vos tâches seront les suivantes : Construction et packaging des nouvelles offres DATA dans un environnement Kubernetes. Automatisation, industrialisation et documentation des solutions. Intégration de solutions de monitoring, d'alerting et de restriction de droits. Assurer le RUN des solutions développées. Veille technologique sur les produits NOSQL avec réalisation de POC, tests de performances et comparaison de solutions. Adaptation des offres DATA existantes pour les intégrer dans l'environnement client. Intégration de solutions de monitoring, d'alerting et de restriction de droits dans les offres. Accompagnement des architectes en apportant une expertise sur les technologies NOSQL / S3. Intervention en assistance/expertise auprès des clients. Définition et documentation des patterns d'usage.

Freelance
CDI

Offre d'emploi
PO DATA / IA

VISIAN
Publiée le
Big Data
Data science
Intelligence artificielle

1 an
10k-60k €
Paris, France

Collaboration étroite avec les parties prenantes pour comprendre les besoins et les objectifs: Recueil du besoin auprès des utilisateurs et définition des cas d'usage Entretiens individuels Workshop UX research Ateliers de conception détaillée avec l'équipe UX/UI Déclinaisons des parcours et rédaction des users stories Respect de la méthode INVEST Utilisation de l'outil JIRA Gestion du backlog de produits et définition des exigences du produit Planification et priorisation des fonctionnalités du produit Coordination des équipes de développement et suivi de l'avancement du projet Validation et acceptation des fonctionnalités développées Communication régulière avec l'équipe et les parties prenantes pour assurer la satisfaction du produit Analyse des données et des retours utilisateurs pour orienter les décisions de développement Participation aux réunions de planification, de rétrospective et de revue de sprint Production de supports de communication Travailler en étroite collaboration avec les équipes de data scientists, d'ingénieurs en IA, ainsi qu'avec les experts métiers pour définir les besoins et les spécifications techniques des projets

Freelance

Mission freelance
Architecte Cloud Native (H/F)

LeHibou
Publiée le
Apache Kafka
Cloud
Kali Linux

12 mois
470-550 €
Paris, France

Notre client dans le secteur Assurance recherche un Architecte cloud native H/F Descriptif de la mission : Nous recherchons pour notre client un architecte cloud, afin de l'accompagner dans une transformation visant à devenir un "cloud service provider" pour les métiers et les marques. Lors de cette mission, les 2 capacités essentielles sont : - Celle de maitriser les principes de conception/développement logiciel et des liens avec les composants middleware L’objectif de la mission est de définir et mettre en place les principes de l’architecture des applications Cloud Native. - Définir les principes de conception d’une application dite Cloud Native en positionnant le rôle des API et du maillage de service - Définir les principes de mises en place des architectures de type microservices dont la granularité associée - Définir et accompagner la mise en œuvre du maillage de services via l’approche ServiceMesh

Freelance

Mission freelance
Ingénieur DevOps

INEXSYA
Publiée le
Ansible
Apache Maven
AWS Cloud

3 mois
550-850 €
Paris, France

La DSIO (Direction des Services d’Infrastructures et Opérations) a pour mission de fournir et supporter l’ensemble des services d’infrastructure avec les niveaux d’expertise requis, de construire et sécuriser le fonctionnement des plates-formes applicatives afin de fournir une infrastructure technologique stable et efficace pour les clients internes au niveau du groupe et en local. L’ingénieur DevOps aura pour mission principale de maintenir et d'optimiser les outils constitutifs de la Software Factory en assurant la fiabilité et l'efficacité de ces outils, il/elle jouera un rôle crucial dans l'automatisation des processus de développement, d'intégration et de déploiement, contribuant ainsi directement à l'amélioration de la qualité des logiciels, à la réduction des délais de mise sur le marché et à l'efficacité de la collaboration inter-équipes. Cette mission s'inscrit dans un objectif plus large de consolidation d'une culture DevOps au sein de l'organisation, visant à soutenir l'innovation continue et l'excellence opérationnelle. Il/elle sera garant de la haute disponibilité des services et devra intervenir dans un environnement technique hétérogène, nécessitant une forte adaptabilité et une veille technologique continue. PRINCIPALES RESPONSABILITES • Configurer les outils pour assurer leur bon fonctionnement, leur intégration et leur optimisation • Automatiser les gestes liés à l’exploitation et à la maintenance des outils • Accompagner les équipes de développement dans l’utilisation des outils et les conseiller sur les best practices CI/CD • Former les développeurs à l’usage des outils en animant des sessions de formation • Documenter la Software Factory : les outils, les best-practices, les erreurs courantes, • Sécuriser les outils et les templates afin de respecter les normes et les standards de l’entreprise ACTIVITES / TACHES A REALISER • Installer et configurer les outils de la Software Factory • Automatiser les taches d’exploitation et de maintenance des outils • Concevoir et développer les templates et accélérateurs à utiliser par les équipes de développement • Concevoir et développer des services sous forme d’API pour enrichir les fonctionnalités des outils de la Software Factory JALONS CLES J1 Livraison de RedHat Ansible Automation Platform (RHAAP) 07/2024 J2 Livraison de JFrog Artifactory 09/2024 J3 Livraison de SonarQube Q4 2024 J4 APIsation de l’offre de service Software Factory Lot1 Q2 2025 J5 APIsation de l’offre de service Software Factory Lot2 Q4 2025 LIVRABLES · Ouverture de RHAAP · Ouverture d’Artifactory · Ouverture de SonarQube · Software Factory APIs · Documentation (Runbook, Guide utilisateur, …)

Freelance
CDI

Offre d'emploi
Data Engineer Spark/Scala (H/F)

CITECH
Publiée le
Apache Spark
Oracle
Scala

12 mois
45k-65k €
Puteaux, Île-de-France

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation de différents projets, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Engineer Spark/Scala (H/F) 🚀 💰 Votre mission est pour un client du secteur banque et assurance qui dispose de 3000 caisses locales sur l’ensemble du territoire ainsi que de 8000 conseillers. Le projet est pour l’une de ses caisses. 📝 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Conception détaillée, fonctionnelle et technique des solutions SPARK/SCALA 🔸 Développement de scripts et modules en SPARK/SCALA 🔸 Formalisation et exécution des plans de tests 🔸 Résolution des anomalies rencontrées lors des phases d'intégration fonctionnelle et de recette utilisateur 🔸 Packaging et déploiement des solutions développées en environnements de pré-production et de production 🔸 Optimisation des traitements Big Data 🔸 Mise en œuvre des solutions industrielles de réentrance

Freelance
CDI

Offre d'emploi
Ingénieur Data SPARK/SCALA

DHM IT
Publiée le
Apache Spark
ITIL
Oracle

3 mois
10k-50k €
Île-de-France, France

Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : Conception détaillée, fonctionnelle et technique. Développements SPARK / SCALA Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. Packaging et déploiement en pre-production et production. Optimisation des traitements afin de garantir la qualité de service standards du DWG. Mise en œuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. Mise en service et accompagnement au déploiement. Suivi des environnements. Le consultant devra travailler en étroite collaboration avec le Chef de Projet, responsable du lot et l'équipe de développement du Programme. Une connaissance d'Oracle est nécessaire Une expérience >5 ans sur des technologies SPARK & SCALA est nécessaire Une connaissance de contexte technologique similaire est un plus

Freelance
CDI

Offre d'emploi
Data engineer scala spark

CELAD
Publiée le
Apache Spark
Scala

2 ans
50k-65k €
Paris, France

Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : - Conception détaillée, fonctionnelle et technique. - Développements SPARK / SCALA - Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. - Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. - Packaging et déploiement en pre-production et production. - Optimisation des traitements afin de garantir la qualité de service standards du DWG. - Mise en œuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. - Mise en service et accompagnement au déploiement. - Suivi des environnements. Le consultant devra travailler en étroite collaboration avec le Chef de Projet, responsable du lot et l'équipe de développement du Programme. Une connaissance d'Oracle est nécessaire Une expérience >5 ans sur des technologies SPARK & SCALA est nécessaire Une connaissance de contexte technologique similaire est un plus

Freelance
CDI

Offre d'emploi
Ingénieur Data Spark / SCALA

HN SERVICES
Publiée le
Apache Spark

3 ans
10k-64k €
Île-de-France, France

La Direction des Systèmes d’Information a pour missions de mettre au quotidien à disposition des 25 000 utilisateurs les données et les traitements nécessaires à leur activité, dans le respect des contrats de service; de garantir la sécurité et la pérennité des actifs informatiques du Groupe; d’accompagner le développement commercial du Groupe en France et à l’international ; d’élaborer de nouveaux systèmes d’information, de nouvelles infrastructures techniques et de maintenir les systèmes existants. Sur une architecture Big Data permettant de collecter les données de l’ensemble des Back Office dans un Datalake (cluster Hadoop), le projet consiste à exploiter ces données pour alimenter un Dataware communautaire stockée sur une base Exadata. Cette exploitation est réalisée par la conception de nouveaux traitements Spark/Scala manipulant les données raffinées du DataLake avec des règles métiers décisionnelles. Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : - Conception détaillée, fonctionnelle et technique. - Développements SPARK / SCALA - Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. - Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. - Packaging et déploiement en pre-production et production. - Optimisation des traitements afin de garantir la qualité de service standards du DWG. - Mise en œuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. - Mise en service et accompagnement au déploiement. - Suivi des environnements. Le consultant devra travailler en étroite collaboration avec le Chef de Projet, responsable du lot et l'équipe de développement du Programme.

Freelance
CDI

Offre d'emploi
Développeur Java/Angular (H/F)

Créalis Ingénierie
Publiée le
Angular
Apache Tomcat
API REST

6 mois
30k-50k €
Nantes, Pays de la Loire

Au sein Créalis Bordeaux et pour le compte de notre client, vos missions seront essentiellement: Participer aux ateliers de conception technico fonctionnels Estimer vos charges et votre reste à faire Développer les composants répondant aux normes et standards des technologies utilisées Produire le code et utiliser un gestionnaire de configuration Participer activement aux daily et rituels du projet Écrire des tests unitaires Participer aux campagnes de tests Assurer la documentation et la capitalisation Participer à la vie de l'équipe

Freelance

Mission freelance
Business Analyst RPA (Robotic Process Automation)

Enterprise Digital Resources Ltd
Publiée le
AMOA
Apache Kafka
API

3 mois
100-500 €
Hauts-de-France, France

En tant qu'Analyste Métier RPA et Process Mining, vous serez responsable de l'identification, de l'analyse et de l'optimisation des processus métier de l'entreprise, en particulier avec la plateforme UiPath. Vous travaillerez en étroite collaboration avec les équipes métier, les développeurs RPA, les experts en Process Mining et les gestionnaires de projet pour concevoir, développer et déployer des solutions RPA et Process Mining efficaces qui améliorent l'efficacité opérationnelle et la productivité de l'entreprise. Responsabilités : Analyser les processus métier existants pour identifier les opportunités d'automatisation et d'optimisation. Collaborer avec les équipes métier pour comprendre leurs besoins et leurs objectifs, et traduire ces besoins en solutions RPA. Concevoir et documenter les solutions, en incluant la modélisation des processus, la conception des robots, et la création des workflows. Tester et assurer la qualité et la fiabilité des solutions. Fournir un soutien technique aux équipes métier et aux utilisateurs finaux, en répondant aux questions, en résolvant les problèmes. Collaborer avec les développeurs RPA pour intégrer les solutions automatisées avec d'autres systèmes et technologies de l'entreprise. Suivre les performances des solutions RPA déployées, en identifiant les opportunités d'amélioration continue et en proposant des ajustements et des mises à jour au besoin. Assurer une communication transparente et efficace avec toutes les parties prenantes impliquées dans les initiatives d'automatisation RPA.

CDI
Freelance

Offre d'emploi
Développeur Java / Python / Scala /

HIGHTEAM
Publiée le
Apache Spark
API REST
Finance

3 ans
10k-71k €
Île-de-France, France

Nous recherchons pour notre client grand compte un consultant spécialisé dans les systèmes d’information avec de solides connaissances en finance de marché, à l'aise avec les méthodologies Agile. Description : Recueil des besoins et rédaction des spécifications fonctionnelles générales. Priorisation des projets ou des lots d'un projet. Suivi des développements avec la maîtrise d'œuvre. Établissement du cahier de recette et réalisation de la recette. Accompagnement à la mise en production. Formation des utilisateurs et rédaction des procédures et guides utilisateurs. Coordination de projet et reporting.

Freelance
CDI

Offre d'emploi
Testeur Automaticien

HR-TEAM
Publiée le
Apache Kafka
Automatisation
Selenium

36 mois
40 400-44 900 €
Lille, Hauts-de-France

Projet Vous intervenez sur un projet à très forte valeur ajoutée dans le secteur du retail. Poste et missions En qualité d’automaticien, vous participerez : • A la conception des tests automatisés et des jeux de données • A l’implémentation des tests. • La qualification, gestion et suivi des anomalies • A la mise en place des bonnes pratiques internes du Test • A la fiabilité des campagnes de tests implémentées • A la documentation des campagnes implémentées • Au support et accompagnement des équipes dans leur démarche Environnement technique : • JS/Xpath/CSS • SQL (PostgreSQL, MariaDB, ORACLE) • Selenium / Appium • Web service (REST API, SOAP) • Kafka, ESB • JavaScript basic knowledge • JIRA • Git Méthodologie de travail : Agile Télétravail : jusqu’à 2 jours/semaine Vous apportez votre expertise et vos capacités d’analyse à la réalisation de plusieurs projets pour l’évolution de l’entreprise.

Freelance

Mission freelance
DEVELOPPEUR FULL STACK

Coriom Conseil
Publiée le
Apache Kafka
Java
Vue.js

12 mois
100-650 €
Nord, France

VUEJS - Confirmé - Impératif JAVA - Confirmé - Impératif KAFKA - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) Portugais Courant (Secondaire) Description détaillée 🎯 VOTRE MISSION En tant que développeur, vos missions sont les suivantes : Participer activement à toutes les étapes d’un cycle agile : Conception, développement, test, déploiement et maintien en condition opérationnelle des fonctionnalités des nouvelles releases Appliquer en équipe les préconisations d'architecture, de sécurité et de performance pour assurer la qualité et la robustesse des développements réalisés Participer avec les coéquipiers à la construction du contenu des prochaines releases Trouver en équipe des solutions techniques pour atteindre les objectifs fixés Documenter les aspects techniques et partager les connaissances avec les développeurs d’autres domaines Contribuer à l'amélioration des processus de delivery des produits en utilisant les outils DevOps et les méthodes agiles ⚙️ ENVIRONNEMENT TECHNIQUE Java 17 et 21 avec Springboot NodeJS avec NestJS VueJS / Typescript React / Typescript BDD PostgreSQL Kafka 🔥 LES PLUS DU POSTE Contexte multi B.U et international Projet stratégique à fort impact et visibilité Télétravail Flexible 🥇 VOTRE PROFIL 3 ans d’expérience minimum souhaitée Solides compétences en développement backend Maîtrise de VueJS Connaissances en NoSQL souhaitées Aptitude à s'adapter à un environnement dynamique et évolutif Bonne humeur et esprit d’équipe 🙂 Pratique de l’anglais (contexte international)

Freelance

Mission freelance
Ingénieur Data (Spark / Scala) H/F

HAYS MEDIAS
Publiée le
Apache Spark
Oracle
Scala

3 mois
100-640 €
Puteaux, Île-de-France

La Direction des Systèmes d’Information a pour missions de mettre au quotidien à disposition des 25 000 utilisateurs les données et les traitements nécessaires à leur activité, dans le respect des contrats de service; de garantir la sécurité et la pérennité des actifs informatiques du Groupe; d’accompagner le développement commercial du Groupe en France et à l’international ; d’élaborer de nouveaux systèmes d’information, de nouvelles infrastructures techniques et de maintenir les systèmes existants. Sur une architecture Big Data permettant de collecter les données de l’ensemble des Back Office dans un Datalake (cluster Hadoop), le projet consiste à exploiter ces données pour alimenter un Dataware communautaire stockée sur une base Exadata. Cette exploitation est réalisée par la conception de nouveaux traitements Spark/Scala manipulant les données raffinées du DataLake avec des règles métiers décisionnelles. Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : - Conception détaillée, fonctionnelle et technique. - Développements SPARK / SCALA - Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. - Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. - Packaging et déploiement en pre-production et production. - Optimisation des traitements afin de garantir la qualité de service standards du DWG. - Mise en œuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. - Mise en service et accompagnement au déploiement. - Suivi des environnements.

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous