Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 309 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Développement backend SQL/clickhouse

Digistrat consulting
Publiée le
Apache
Big Data
DevOps

3 ans
40k-60k €
Paris, France

Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un développeur backend SQL/clikhouse. Périmètre fonctionnel : banque d'investissement Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, base de donées distribuée avec un systel de cache in memory, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins. Les principales tâches de la missions sont les suivantes : Le but est d'développer des nouvelles fonctionnalités demandées par le trading, et aussi techniquement améliorer la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions. Le candidat sera chargé de la partie back end ainsi que de la partie devops.

Freelance

Mission freelance
INGENIEUR DATA SPARK SCALA F/H

GENIOUS
Publiée le
Apache Spark
Big Data
Scala

3 ans
100-610 €
Île-de-France, France

Genious Systèmes recherche pour un de ses clients un Ingénieur Data Spark Scala F/H Contexte Mission: Sur une architecture Big Data permettant de collecter les données de l’ensemble des Back Office dans un Datalake (cluster Hadoop), le projet consiste à exploiter ces données pour alimenter un Dataware communautaire stockée sur une base Exadata. Cette exploitation est réalisée par la conception de nouveaux traitements Spark/Scala manipulant les données raffinées du DataLake avec des règles métiers décisionnelles. Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : Conception détaillée, fonctionnelle et technique. Développements SPARK / SCALA Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. Packaging et déploiement en pre-production et production. Optimisation des traitements afin de garantir la qualité de service standards du DWG. Mise en œuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. Mise en service et accompagnement au déploiement. Suivi des environnements. Le consultant devra travailler en étroite collaboration avec le Chef de Projet, responsable du lot et l'équipe de développement du Programme.

Freelance
CDI

Offre d'emploi
Ingénieur Intégration/Exploitation Legacy (Linux/Tomcat) (H/F)

NOOEH
Publiée le
Apache Tomcat
Legacy System Migration Workbench (LSMW)
Linux

2 ans
35k-40k €
Vaison-la-Romaine, Provence-Alpes-Côte d'Azur

Missions Principales Gestion de la Production Legacy : Surveillance, maintenance et optimisation des systèmes legacy existants. Administration Système : Installation, configuration et gestion des serveurs Linux. Gestion des Serveurs d'Applications : Administration et optimisation des serveurs Tomcat. Automatisation : Développement de scripts d'automatisation pour améliorer l'efficacité des processus. Sécurité : Mise en œuvre et surveillance des mesures de sécurité pour garantir l'intégrité des systèmes. Support Technique : Résolution des incidents techniques et support aux équipes internes. Documentation : Rédaction et mise à jour de la documentation technique.

Freelance

Mission freelance
Ingénieur de production Middleware (H/F)

Insitoo Freelances
Publiée le
Apache Tomcat
Middleware

2 ans
350-550 €
Lyon, Auvergne-Rhône-Alpes

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Ingénieur de production Middleware (H/F) à Lyon, Auvergne-Rhône-Alpes, France. Contexte : Fonctionnement : sur site à Lyon + Télétravail Les missions attendues par le Ingénieur de production Middleware (H/F) : Responsabilités : Réalisation d’audits réguliers Support et accompagnement aux choix techniques Supervision/monitoring (temps réel et prédictif) / alertes Support en escalade des incidents et des demandes Contribution active aux crises applicatives et à la gestion des problèmes Sécurisation de l’exploitabilité des applications Contribution aux chantiers d'industrialisation et outillage QUALITÉS REQUISES : Ingénieur de production, Expert Middleware, Administrateur système ou administrateur de serveurs d’application, tu disposes d'une première expérience sur un poste similaire. Tu maîtrises ou a minima es familiarisé à plusieurs serveurs d'application et serveurs Web (Weblogic, Apache, Tomcat, Jboss, Springboot...), et disposes d’une expérience d’analyse de JVM. Si tu es un profil DEV avec l’envie de te confronter aux enjeux de l’OPS, n’hésite pas non plus à postuler, nous saurons t’accompagner. Une connaissance des solutions F5 ou de Kubernetes serait un plus.

Freelance

Mission freelance
Expert Kafka/Elastic

CS Group Solutions
Publiée le
Apache Kafka
Elasticsearch

6 mois
300-3k €
Niort, Nouvelle-Aquitaine

Nous recherchons un Expert Kafka/Elastic Contexte: Dans le cadre de l’évolution de son système d’information, le client a identifié le besoin de s’adjoindre l’expertise d’une société de prestation de services disposant de compétences avérées en matière d'expertise Kafka / Elastic pour développer, industrialiser et automatiser la plateforme Kafka / Elastic. Prestations attendues: Assister et conseiller dans le choix et l’utilisation des méthodes Informer sur les évolutions Former aux nouvelles technologies et systèmes Participer aux études et développement & conduite d’études ponctuelles Gérer des normes, méthodes, outils et référentiels Mettre en place les normes, méthodes et outils et en vérifie l'application Certifier des composants et applications développées Expertises attendues: Apache Kafka Confluent sur Kubernetes Openshift. Stack Elastic type ELK sur Elastic Cloud Enterprise. Socle Ansible/Python pour l’industrialisation des solutions. Prometheus/Grafana pour la supervision. C35 Ecosystème comprenant des outils open-sources comme AKHQ ou KafkaGitops. Livrables attendus: Dossiers d'expertise Référentiels domaine d'expertise

Freelance

Mission freelance
Data Engineer

SILKHOM
Publiée le
Apache Airflow
Docker
Mongodb

6 mois
100-350 €
Clichy, Île-de-France

Dans le cadre d’une réorganisation et d’une migration des solutions vers du SaaS, nous rechercherons pour notre client un Data Engineer. Vos différentes missions : Votre principale mission sera de concevoir et maintenir l’infrastructure de données, tout en mettant l’accent sur les différents aspects : Utilisation des données pour soutenir notre produit SaaS en standardisant les données. Développement de flux de traitement en tenant compte des exigences d'interface contractuelles. Conception, développement et déploiement de pipelines de données robustes et évolutifs. Mise en œuvre de stratégies de traitement et de gestion des données pour garantir leur qualité, leur fiabilité et leur sécurité. Documentation approfondie des processus et solutions mises en œuvre. Suivi des meilleures pratiques en matière de développement logiciel et d'ingénierie des données. Connaissances approfondies du secteur Retail, notamment dans le domaine du marketing des offres promotionnelles. Garantie du volume, de l'éthique et de la sécurité des modèles de données grâce à une documentation appropriée.

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

Freelance

Mission freelance
PROJECT MANAGER SENIOR / BUSINESS ANALYST DATA

SMARTPOINT
Publiée le
Big Data
Microsoft SQL Server

12 mois
500 €
Île-de-France, France

Le prestataire recherché intégrera l’équipe Data en place au sein de la Holding, répartie entre Paris et Bangalore. Cette équipe a en charge la gestion du datawarehouse utilisé pour le pilotage commercial, financier, risque et Conformité de la BU. Elle est aussi porteuse des principes Data à appliquer dans les projets de la BU, sur la Data Quality ou la Protection des données. Dans cette équipe, pour donner suite à la cession, le prestataire contribuera au programme de transition en priorité, ainsi qu’au support des sujets transverses de la filière Data. Les principales missions du poste seront : • Définition et évaluation des différents scénarios de transition • Pilotage et Coordination des différentes parties prenantes du projet de transition • Homologation des résultats de non-régression avec le métier et les autres entités • Accompagnement des filiales de la BU sur les évolutions du Datawarehouse et de la filière Data • Support de l’équipe dans les activités de Data Management, notamment le pilotage des usages Data • Contribuer aux pratiques agiles de l’équipe (slicing, priorisation par la valeur…) et accompagner le métier dans la transformation agile Les compétences attendues sont : • Pilotage et animation de projet de grande envergure • Maîtrise des environnements de type Datawarehouse et du requêtage SQL • Capacité à coordonner des intervenants dans un contexte international • Capacité à réaliser les tâches opérationnelles pour l’avancement du projet • Anglais opérationnel

Freelance
CDI

Offre d'emploi
Data Analyst / Business analyst Datat junior à confirmé

Digistrat consulting
Publiée le
Data analysis

36 mois
10k-200k €
Paris, France

💡 Contexte /Objectifs : Ll s'agira de contribuer à divers projets de la filière Finance, en renforcement des personnes actuellement en charge de piloter ces sujets dans l'équipe. • Déclaration de nouveaux indicateurs environnementaux, sociaux et de gouvernance (ESG). Pour l'IT Finance il s'agit plus particulièrement d'apporter au métier Finance des solutions pour construire un Datamart Transactionnel ESG en s'arrimant aux Golden Sources du Datalake. • Maintenance évolutive sur les modules Datalake Coût du Risque, Intragroupe ou Effets Ifrs9. La personne aura en charge: De récupérer les besoins auprès des métiers et de les valider De rédiger les spécifications fonctionnelles en cohérence avec le modèle de données du datalake et des golden sources disponibles. De participer aux tests conjointement avec l’IT et d’accompagner le métier dans ses recettes. De participer aux comités de suivi du projet (CSO, revue des Jiras du Sprint, etc…) 🤝 Expertises spécifiques : Expériences business analyst sur des projets en environnement bancaire autour de la data et problématiques associées (détermination des golden sources, appropriation des modèles de données) : exigé Connaissance des outils de BI comme EasyMorph, PowerBi, Tableau, requêtage SQL: exigé Maitrise de l'anglais écrit (reporting en anglais) et parlé : exigé Compétences génériques recherchées travail en équipe / capacité d'analyse / réactivité / force de proposition / organisation et rigueur : exigé Connaissances des architectures Systèmes d'Information bancaires : souhaité Connaissance de la méthode agile Scrum : souhaité (expérience sur un projet serait un plus) Connaissances fonctionnelles des produits de marché & de financement: serait un plus. Connaissance de la comptabilité bancaire : serait un plus

Freelance
CDI

Offre d'emploi
Ingénieur Data

Amontech
Publiée le
AWS Cloud
Data visualisation

1 an
10k-57k €
Lille, Hauts-de-France

Nous recherchons un profil expérimenté ayant déjà travaillé avec Airflow et Databricks pour la partie data engineering ainsi que Tableau pour la partie visualisation. Notre projet implique une grande quantité de données et nécessite une gestion et une analyse efficaces. Les objectifs et livrables de ce projet comprennent: Migration : connecter nos sources de données vers AWS S3 Réalisation de dashboards avec Tableau Travail sur la qualité de nos données avec Databricks Création de flux de données automatisés avec Airflow

Freelance

Mission freelance
Data Engineer

Enterprise Digital Resources Ltd
Publiée le
BigQuery
Data visualisation
Google Cloud Platform

6 mois
100-390 €
Hauts-de-France, France

Développer les produits du domaine de l'offre (consolidation de données de multiples sources, requêtage et optimisation, algo de recommandation). En lien avec notre référent Data Engineering du domaine, le candidat devra se charger des diverses activités listées ci-dessus. SA MISSION : Est garant de l'accès qualitatif aux sources de données. S'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ).

CDI
Freelance

Offre d'emploi
Architecte DC and Cloud senior (H/F) - 92

Mindquest
Publiée le
Azure
Cloud
Data Center

3 mois
70k-90k €
Puteaux, Île-de-France

Un de nos clients recherche un Architecte Datacenter et cloud H/F pour un poste dans le 92. Rattaché au Directeur Infra groupe, et directement au Responsable du Pôle Architecture vos missions seront les suivantes: Mission * Conception et implémentation de solutions avancées de datacenter et de cloud computing. * Élaboration de stratégies d'urbanisme SI pour structurer et optimiser l'architecture des systèmes d'information. * Analyse des besoins d'infrastructure des filiales et recommandation de solutions adaptées. * Gestion et amélioration des infrastructures de datacenter et services cloud, incluant la migration et l'intégration de systèmes. * Garantir la sécurité, la performance et la fiabilité des infrastructures et des systèmes d'information. * Collaboration étroite avec les équipes IT des filiales et partenaires pour le conseil et le support technique. * Rédaction de documentation technique détaillée et maintien d'une veille technologique active.

CDI

Offre d'emploi
Développeur JAVA F/H/X

Mantu Groupe ( Amaris )
Publiée le
Apache Struts
J2EE / Java EE
Java

35k-41k €
Mulhouse, Grand Est

Êtes-vous passionné.e par le développement d'applications web robustes en Java, avec une expertise particulière dans le Framework Struts ? Nous recherchons un.e expérimenté.e qui souhaite relever de nouveaux défis et garantir l'excellence technique de nos produits. Rejoignez-nous et jouez un rôle clé dans la création d'applications web innovantes et fiables, en utilisant votre expertise en Java et Struts. 🔥 Vos responsabilités : Développement sous Java : Prendre en charge une partie des développements en respectant les règles et méthodes définies, avec une expertise avancée en Java. | Analyse et Évolution : Analyser, corriger et/ou faire évoluer les applications informatiques pour répondre aux besoins changeants du projet. Participation aux Tests : Participer activement aux différentes phases de tests, en garantissant une couverture exhaustive des fonctionnalités et en rédigeant la documentation projet associée. Collaboration en Équipe : Travailler efficacement au sein d'une équipe multidisciplinaire, en assurant une cohérence parfaite avec les objectifs du projet et en respectant les normes d'assurance qualité ISO 9001.

Freelance

Mission freelance
Data Engineer

Coriom Conseil
Publiée le
BigQuery
Data visualisation
Google Cloud Platform

12 mois
100-480 €
Nord, France

SQL, GCP, BigQuery - Confirmé - Impératif Python - Junior - Souhaitable Outils DataViz (PowerBI, Looker) - Junior - Souhaitable Connaissances linguistiques Français Courant (Impératif) Anglais Lu, écrit (Secondaire) Description détaillée Développer les produits du domaine de l'offre (consolidation de données de multiples sources, requêtage et optimisation, algo de recommandation). En lien avec notre référent Data Engineering du domaine, le candidat devra se charger des diverses activités listées ci-dessus.

Freelance

Mission freelance
Consultant DataScientist / DataAnalyst

AKERWISE
Publiée le
Data science

2 ans
410-430 €
Nantes, Pays de la Loire

La mission de Data Scientist – Data Analyst consiste à : Comprendre et modéliser les problématiques métier et celles du pôle Définir avec justesse le périmètre des données nécessaire à la solution technique Designer et construire des modèles de machine learning Modéliser des résultats d’analyse des données pour les rendre lisibles, exploitables et actionnables Eventuellement créer des visualisations appropriées aux besoins cartographiques Estimer la charge à allouer aux différents traitements et actions techniques prévus Optimiser le modèle de donnée des projets data de l’équipe Développer des scripts Python optimisés Créer les tables ou vues nécessaires aux projets data de l’équipe Echanger avec les ops de la Team Data à des fins d’industrialisation de collecte, traitements, supervision et restitution des données

Freelance

Mission freelance
Architecte Kafka

BEEZEN
Publiée le
Apache Kafka
Microsoft SQL Server

12 mois
600-800 €
Paris, France

Bonjour, je recherche pour un de mes clients un ARCHITECTE KAFKA Dans le cadre de la création de l’équipe streaming basé sur la technologie KAFKA Confluent Cloud, En tant qu'Architecte Kafka sur Confluent, vous serez responsable de la conception et de l'implémentation des architectures de streaming de données à grande échelle en utilisant Apache Kafka et la plateforme Confluent. Vous travaillerez étroitement avec les équipes de développement et d'opérations pour assurer la scalabilité, la sécurité et l'efficacité des solutions de données. Responsabilités principales Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance. Élaborer des stratégies de déploiement de Kafka, incluant la configuration des clusters, le choix des machines, et la définition des paramètres de performance. Assurer l'intégration de Kafka avec diverses sources de données et plateformes de traitement en aval. Diriger les évaluations de sécurité et les audits de conformité pour les infrastructures Kafka. Fournir un soutien technique et une expertise lors de la résolution de problèmes complexes. Développer et maintenir la documentation technique, y compris les architectures de référence et les meilleures pratiques. Mentorat et formation des développeurs et des autres architectes dans l'utilisation optimale de Kafka et Confluent. Compétences et qualifications Expérience approfondie avec Apache Kafka et la plateforme Confluent. Expérience démontrée en architecture de solutions de données à grande échelle. Maîtrise des langages de programmation tels que Java, Scala ou Python. Connaissance approfondie des pratiques de sécurité des données et des architectures microservices. Excellentes compétences en communication, en présentation et en leadership. Expérience attendue Expérience dans le développement opérationnel de flux sous KAFKA Expérience significative sur la plateforme Confluent Expérience significative dans un environnement Agile/ Hybrid Expérience de management d’équipes de développeurs et de suivi du delivery Test unitaire/Compliance /Performance Documentation & procédures afin de facilité au support le Monitoring technico fonctionnel des interfaces/Jobs Expérience SAP (ECC & S4/HANA) serait apprécié Coordination avec l’équipe de DEV afin de délivrer un support N3. Outils : KAFKA toolset Programmation et scripting (Java, PL/SQL, SQL, Unix, etc) Job Scheduling / Ordonnanceur (OpCon) Database (SQL Server) Gestion de la demande et service incident (JIRA / SNOW)

309 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous