Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 900 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance Responsable d'applications (H/F)

Insitoo Freelances
Publiée le
Azure Data Factory
SQL

2 ans
320-450 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Responsable d'applications (H/F) à Lille, Hauts-de-France, France. Les missions attendues par le Responsable d'applications (H/F) : - Analyser et corriger les erreurs d’interfaces entre nos différentes applications. - Coordonner les actions correctrices dans les outils amont avec les responsables d’application concernés : exécution des interfaces, qualité des données, … - Mettre en œuvre les changements de paramétrage décidés - Gestion des droits, des accès, des permissions, … - Piloter les interfaces entre les systèmes amonts et le Datalake Azure - Traitement de données via Azure Data Factory (maintenance de flux, correction, développement). - Charger en masse les données de référence à partir des templates existants. - Faire le lien avec l’éditeur sur les sujets techniques. - Suivre les incidents IT ouverts auprès de l’éditeur. - Rédaction des spécifications fonctionnelles d’évolution pour l’éditeur ou pour nos services IT. - Interlocuteur privilégié entre nos utilisateurs métier et les services IT.

Freelance

Mission freelance Responsable d'Applications (H/F)

Anywr freelance
Publiée le
Azure Data Factory
SQL

12 mois
100-500 €
Lille, Hauts-de-France

Finalités de la mission : Analyser et corriger les erreurs d’interfaces entre les différentes applications. Coordonner les actions correctrices dans les outils amont avec les responsables d’application concernés : exécution des interfaces, qualité des données, … Assurer la maintenance applicative Gestion des droits, des accès, des permissions, … Piloter les interfaces entre les systèmes amonts et le Datalake Azure Traitement de données via Azure Data Factory (maintenance de flux, correction, développement). Charger en masse les données de référence à partir des templates existants. Faire le lien avec l’éditeur sur les sujets techniques. Suivre les incidents IT ouverts auprès de l’éditeur. Rédaction des spécifications fonctionnelles d’évolution Effectuer la maintenance évolutive et corrective des flux inter applicatifs existants

Freelance

Mission freelance Responsable d’applications - interfaces / flux / Azure Data Factory

Axande
Publiée le
Azure Data Factory
Base de données
MySQL

12 mois
100-700 €
Lille, Hauts-de-France

Nous recherchons pour l’un de nos clients un Responsable d’applications. Le poste est au siège international d’un groupe situé à Villeneuve d’Ascq, proche Croix. Mission Générale. - Sur notre solution internationale d’Asset management SONEKA (en cours de déploiement) : o Assurer la maintenance applicative (responsable d’applications) o Effectuer la maintenance évolutive et corrective des flux inter applicatifs existants. Finalités de la mission - Analyser et corriger les erreurs d’interfaces entre nos différentes applications. - Coordonner les actions correctrices dans les outils amont avec les responsables d’application concernés : exécution des interfaces, qualité des données, … - Mettre en œuvre les changements de paramétrage décidés dans SONEKA. - Gestion des droits, des accès, des permissions, … - Piloter les interfaces entre les systèmes amonts et le Datalake Azure d’une part – et entre le Datalake Azure et SONEKA d’autre part. - Traitement de données via Azure Data Factory (maintenance de flux, correction, développement). - Charger en masse les données de référence à partir des templates existants. - Faire le lien avec l’éditeur sur les sujets techniques. - Suivre les incidents IT ouverts auprès de l’éditeur. - Rédaction des spécifications fonctionnelles d’évolution pour l’éditeur ou pour nos services IT. - Interlocuteur privilégié entre nos utilisateurs métier et les services IT.

Freelance

Mission freelance Responsable d'application Azure data

ESENCA (groupe Kali)
Publiée le
Azure Data Factory
JIRA
SQL

3 mois
400-440 €
Lille, Hauts-de-France

Mission Générale. - Sur notre solution internationale d’Asset management (en cours de déploiement) : o Assurer la maintenance applicative (responsable d’applications) o Effectuer la maintenance évolutive et corrective des flux inter applicatifs existants. Finalités de la mission - Analyser et corriger les erreurs d’interfaces entre nos différentes applications. - Coordonner les actions correctrices dans les outils amont avec les responsables d’application concernés : exécution des interfaces, qualité des données, … - Mettre en œuvre les changements de paramétrage. - Gestion des droits, des accès, des permissions, … - Piloter les interfaces entre les systèmes amonts et le Datalake Azure d’une part – et entre le Datalake Azure et le produit cible d’autre part. - Traitement de données via Azure Data Factory (maintenance de flux, correction, développement). - Charger en masse les données de référence à partir des templates existants. - Faire le lien avec l’éditeur sur les sujets techniques. - Suivre les incidents IT ouverts auprès de l’éditeur. - Rédaction des spécifications fonctionnelles d’évolution pour l’éditeur ou pour nos services IT. - Interlocuteur privilégié entre nos utilisateurs métier et les services IT.

Freelance

Mission freelance Data engineer & BI

BLOOMAYS
Publiée le
Azure Data Factory
Databricks
Microsoft Power BI

1 an
400-500 €
Gennevilliers, Île-de-France

o Data engineering : mise à disposition des données dans le datalake au format delta lake (Azure Databricks) ▪ Conception des flux data ▪ Développement des pipelines de données avec ADF et Databricks (ingestion Bronze/ Implémentation Silver) ▪ Mise en œuvre avec le superviseur des flux du monitoring de ceux-ci ▪ Intégration des tests unitaires o Analyse & BI : ▪ Analyse des besoins ▪ Conception, élaboration et déploiement des rapports et tableaux de bord sous Power BI à partir du Gold ▪ Modélisation des datamarts ▪ Analyses de données et Requêtages ▪ Maintenance évolutive et corrective o Coordination des intervenants SI o Rédaction de spécifications & Documentation o Mise en place des exigences RGPD/SSI

Freelance
CDI

Offre d'emploi Développeur PySpark / Data Engineer (h/f)

HR-TEAM
Publiée le
Azure Data Factory
Big Data
Databricks

12 mois
55k-65k €
Paris, France

Le Data Engineer va intégrer l’équipe Data & RPA du Département Guilde Data, qui regroupe l’ensemble des expertises technologiques liées à l’ingénierie de la donnée, de l’automatisation et à l’exploitation des modèles de Machine Learning. Cette Guilde est dédiée au service et équipes (Data office, Tribus, Business, Transformation Office etc.), afin de fournir, en collaboration avec le Data Office, les plateformes (RPA, BI, Data, …) et les données nécessaires aux équipes chargées de délivrer les cas d’usages, puis les déployer et les maintenir en conditions opérationnelles. Vous serez directement rattaché(e) au Responsable de l’équipe Data & RPA au sein de la Direction Technologies. Vous allez contribuer directement aux projets des directions métier (ex : Fraude santé, DSN, Pricing IARD, Optimisation du lead management, Fragilité Auto, …). La Direction Transformation Digital Tech et Data en quelques mots : - Une organisation agile en feature teams : tribus, guildes, squads - Des projets sur des applications innovantes à fort trafic (web, mobile…) - Des méthodologies craft (TDD, BDD, clean code, code review…) et DevOps - Une communauté de partage de bonnes pratiques (BBL, dojo, meetup, conf…)

CDI
Freelance

Offre d'emploi Data Engineer Databricks

KLETA
Publiée le
Apache Spark
Azure
Azure Data Factory

3 ans
10k-68k €
Paris, France

Conception de l'architecture de données : Concevoir et mettre en œuvre une architecture de données robuste et évolutive sur la plateforme Databricks. Définir les schémas de données, les pipelines ETL et les flux de données pour répondre aux besoins métier. Développement de pipelines ETL : Développer des pipelines ETL pour extraire, transformer et charger les données à partir de sources variées vers le lac de données Databricks. Utiliser des outils comme Apache Spark pour traiter de gros volumes de données de manière efficace et distribuée. Optimisation des performances : Optimiser les requêtes Spark pour améliorer les performances des traitements de données. Utiliser des techniques telles que le partitionnement, la mise en cache et la gestion de la mémoire pour optimiser l'exécution des jobs Spark. Gestion des données en temps réel : Mettre en place des pipelines de traitement de données en temps réel à l'aide de technologies comme Apache Kafka et Apache Spark Streaming. Traiter les flux de données en continu pour fournir des analyses en temps réel et des insights instantanés. Gestion de la qualité des données : Mettre en place des contrôles de qualité des données pour garantir l'intégrité et la fiabilité des données. Développer des processus de nettoyage, de normalisation des données pour maintenir leur qualité. Sécurité des données : Mettre en place des mesures de sécurité pour protéger les données sensibles et confidentielles. Utiliser des fonctionnalités de sécurité avancées de Databricks telles que le chiffrement des données et la gestion des accès pour garantir la confidentialité et l'intégrité des données. Automatisation des workflows : Automatiser les workflows de traitement de données en planifiant et en orchestrant les jobs ETL à l'aide de Databricks Jobs ou d'autres outils de planification. Mettre en place des déclencheurs pour déclencher des actions en réponse à des événements spécifiques sur la plateforme de données. Surveillance et gestion des opérations : Surveiller les performances et la santé de la plateforme de données en utilisant des outils de surveillance comme Databricks Metrics et Databricks Monitoring. Gérer les incidents et les problèmes opérationnels en assurant une disponibilité continue des services de données. Collaboration avec les équipes métier : Travailler en étroite collaboration avec les équipes métier pour comprendre leurs besoins en matière d'analyse de données et de reporting. Fournir un support technique et des conseils pour aider les utilisateurs à accéder et à analyser les données sur la plateforme Databricks. Veille technologique : Suivre les évolutions dans le domaine du Big Data et du traitement des données pour intégrer les nouvelles technologies et les meilleures pratiques dans la plateforme de données Databricks.

Freelance

Mission freelance Architecte big data HDP ou CDP on premise - Sophia Antipolis

WorldWide People
Publiée le
Big Data
Hadoop

12 mois
380-400 €
Sophia Antipolis 1, Provence-Alpes-Côte d'Azur

Architecte big data HDP ou CDP on premise Au sein de l’équipe socle BigData, en lien avec le product owner socle et l’architecte déjà présent, le profil prend un rôle d’architecte / expert sur le socle BigData : • Porter des sujets d’architecture pour intégrer le Cloudera Data Platform • Contribuer à l’industrialisation de notre plateforme Big Data (déploiement des composants, supervision, sécurité, etc…), • Rédiger des modes opératoires et des documentations techniques pour faciliter la compréhension et la montée en compétence de l’équipe, • Qualifier et chalenger les architectures applicatives proposer par les équipes projets • Identifier les faiblesses des environnements et proposer des solutions pour optimiser et améliorer la robustesse de la plateforme , • Apporter de l’expertise sur les incidents et être force de proposition sur les nouveaux usages (APIsation, PRA/PCI, etc…), • Si le profil a une fibre chef de projet / scrum master, il pourra prendre en charge une partie de l’animation de l’équip. Ces activités nécessitent une connaissance technique de l’environnement Hadoop Big Data acquise sur plusieurs architectures Big Data déployées en production, le sens du service et une forte autonomie. Une bonne vision d’ensemble sera nécessaire : sécurité, exploitation, etc… ü Livrables de la prestation : • Etudes d’architecture • POC : Code source commenté / Tests • Industrialisation de composant du socle • Documentations diverses ü Compétences techniques requises : • Maitrise d’une solution HDP ou CDP on premise • Cloudera Manager, Kerberos, Ranger • Kafka • Spark, Zeppelin • HDFS, Hive, Hbase • Oozie • Yarn • Jenkins • Docker L’ensemble de ces activités nécessitent une très bonne connaissance des composants Hadoop. Une expérience de 3 à 5 ans sur un poste d’architecte Big Data nous semble nécessaire pour bien appréhender ses activités. Ces activités nécessitent une forte autonomie, un mindset d’architecture et d’administration de plateforme Big Data, de la curiosité et une appétence pour la mise en place de solutions techniques. Un profil ayant une appétence pour l'animation d'équipe serait idéal. Une expérience réalisée sur un cluster sécurisé et « kerberisé » serait un plus, tout comme une expérience de déploiement de cluster à la demande.

CDI

Offre d'emploi Product Owner – Anglais – MARSEILLE

Acpqualife
Publiée le
Big Data
Méthode Agile
Recette

55k-60k €
Marseille, Provence-Alpes-Côte d'Azur

Dans le cadre de notre développement en région PACA, nous recrutons un Product Owner – (F/H ) chez notre client à Marseille. Il s’agit d’assurer le bon développement d’ outils à destination d’une transition énergétique de l’entreprise. Mener l' analyse du système et du process existant Collecter les besoins utilisateurs, aider à l’arbitrage, à la priorisation et formalisation des Use case Gérer le Backlog : Analyse d’impacts, priorisation, lotissement, découpage du projet, rédaction de la documentation (Epics, User stories, maquettage, spécifications) Rédiger les « user story » à partir de ces exigences avec les critères d’acceptances et définition des priorités pour identification d’un Backlog. Organiser les ateliers et validation des maquettes avec les équipes web. Assurer la recette : rédaction des scénarios de tests, définition des jeux de données, réalisation des tests. Accompagner les équipes de maitrise d’œuvre (Web , BI, data ) dans leur compréhension des attentes du métier tout au long de la phase d’implémentation. Préparer le déploiement des outils : identification des sujets de conduite du changement, rédactions des documents d’accompagnement/ formation. Superviser la mise en place des outils, process et/ ou systèmes Proposer des solutions de remplacement ou d’un protocol d’évolution Améliorer la Data Quality des donnes clés pour le projet. Reporter l’avancement aux chefs de projet métier et à l’IT. Mode = 3 jours de présentiel – 2 jours de télétravail. Livrables attendues : • Business Requirement Détaillés • User Stories, définition des jeux de données • Cahier de test utilisateur pour la recette des applications • Rédaction des guides utilisateur • Plan de déploiement

CDI

Offre d'emploi Data Engineer (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Azure Data Factory
BigQuery
Google Cloud Platform

40k-50k €
Lille, Hauts-de-France

💡 Missions pour le Data Engineer : Développement et maintenance : Créer et maintenir des ETLs et des pipelines de données robustes en utilisant Talend, MS BI, Azure ( DataFactory ), GCP ( BigQuery ) , SQL, Python, Scala... Modélisation des données : Proposer des modèles de données fiables et optimisés en termes de stockage et de traitement. Automatisation : Implémenter des processus de CI/CD pour automatiser le déploiement et la gestion des infrastructures de données. Analyse et reporting : Développer des rapports et des dashboards en utilisant Looker, Power BI, Qlikview, Tableau, pour faciliter l'accès aux insights data-driven.

Freelance
CDI

Offre d'emploi Business Analyst Talend / Azure / ETL

VISIAN
Publiée le
Azure
Azure Data Factory
Scrum

1 an
10k-65k €
Paris, France

Analyse des besoins métier et des processus existants Identification des opportunités d'amélioration et recommandation de solutions informatiques Élaboration de spécifications fonctionnelles et techniques Rédaction de la documentation en collaboration avec l'architecte Azure (contrat d'interface, mapping de données, règles de gestion etc..) Coordination avec les équipes de développement pour assurer la livraison des fonctionnalités attendues Rédaction du cahier de recette Conduite du changement Participation à la planification et à la gestion de projets

Freelance

Mission freelance Ingénieur Linux

E3M MANAGEMENT
Publiée le
Azure
Linux

2 ans
380-500 €
Valbonne, Provence-Alpes-Côte d'Azur

Concevoir, déployer et maintenir les solutions de transfert de fichiers basées sur la technologie Axway. Gérer et optimiser les performances des environnements de transfert de fichiers. Collaborer avec les équipes de développement pour intégrer les solutions de transfert de fichiers dans les applications existantes. Assurer la sécurité des données lors des transferts en mettant en œuvre des protocoles et des mesures de sécurité robustes. Fournir un support technique de niveau 3 pour résoudre les problèmes liés aux transferts de fichiers. Effectuer la surveillance proactive des systèmes pour garantir la disponibilité et la fiabilité des services de transfert de fichiers. Documenter les procédures opérationnelles et maintenir à jour la documentation technique.

CDI

Offre d'emploi Ingénieur système Linux Transfert fichiers - H/F

TRSB
Publiée le
Agile Scrum
Azure
DevOps

45k-65k €
Valbonne, Provence-Alpes-Côte d'Azur

Au sein de la Direction des Opérations, la ligne de produits Middleware est responsable des communications entre les applications et avec les partenaires. Vous seriez intégré au service « Connectivité » en charge de l’ingénierie, du développement et de l’exploitation des passerelles techniques, le prestataire contribuera au support, à la mise en place et au suivi opérationnel des solutions hautement disponibles mises en place dans le service : TRANSFERS DE FICHIERS Le mode de travail de l’équipe est construit autour du framework Agile/SAFE. Votre tâche consiste à mettre en place l'environnement nécessaire pour accueilir de nouveaux transferts des fichiers, notamment avec KLM. Votre rôle est d’assurer les tâches suivantes : • Création/Intégration de script Linux pour invoquer les nouveaux flux (shell et Python) • Installation de l’environnement XFB sur les machines avec les permissions: création de folders, création de clés SSH pour les flux XFB, gestion de permissions sur les folders. Automatiser autant que possible cette partie • Test de la configuration et test de bout en bout avant la livraison • Création/modification de dashboards sous ElasticSearch/Kibana pour le monitoring • Gestion et suivi du paramétrage sous Azure • Gestion et suivi du paramétrage du système d’exploitation et des applications de transfert • Création et maintien à jour de la documentation • Gestion des incidents • Gestion et suivi des performances • Support aux équipes de développement métier pour l’analyse des flux en recette ou production • Participation aux projets • Développement logiciel des applications nécessaires à l’automatisation et l’administration des produits • Veille technologique. Des déplacements ponctuels sont à prévoir (France et Pays-Bas principalement).

CDI
Freelance

Offre d'emploi Développeur Power Apps (F/H)

LAURALBA Conseil
Publiée le
Azure
Power Apps
Power Automate

1 an
10k-45k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Dans le cadre d'un nouveau projet chez un de nos clients à basé à Aix-en-Provence, nous sommes à la recherche d'un développeur Power Apps (F/H). Vos principales missions seront les suivantes : Animer des ateliers pour recueillir les besoins des utilisateurs Rédiger et maintenir des documents fonctionnels et techniques Réaliser l’implémentation des solutions low-code/no-code ne nécessitant que peu ou pas de développement (type Power Apps, Power Automate, Power BI) Accompagner les utilisateurs sur l’environnement Power Platform et les outils Microsoft 365 Réaliser la recette des applications développées

Freelance

Mission freelance Développeur Jeux vidéo(Unreal / C++, Unity)

Nicholson SAS
Publiée le
C/C++
Unreal Engine

1 an
100-600 €
Montréal, Québec, Canada

In this role, you will : Code in C++ engine-related items Innovate and push the boundaries of rendering technologies Optimize both memory and performance in systems Diagnose and solve common problems - such as load times, memory usage and performance problems - to improve the robustness of the engine Be an active participant to our code review's process Dans ce rôle, vous devrez : Coder en C++ les éléments liés au moteur Innover et repousser les limites des technologies de rendu Optimiser la mémoire et les performances des systèmes Diagnostiquer et résoudre les problèmes courants - tels que les temps de chargement, l'utilisation de la mémoire et les problèmes de performance - afin d'améliorer la robustesse du moteur. Participer activement à notre processus de revue de code. What we're looking for : 5+ years of experience working in an Unreal engine environment Strong Vectors and Matrices Mathematical knowledge Strong skills in C++ or C# and HLSL programming Well versed in software engineering principles Strong understanding of how a game engine work and of editor concepts Familiarity with development tools and profiling on modern systems Experience working in an environment with an emphasis on concurrency, memory, and performance Self-motivated with proven experience researching, developing, and optimizing rendering solutions for a variety of platforms . in Computer Science, Computer Engineering, or equivalent experience

Freelance

Mission freelance Expert Power BI (H/F)

LeHibou
Publiée le
Data visualisation
Microsoft Office
Microsoft Power BI

6 mois
490-650 €
Paris, France

Notre client dans le secteur Énergie et ressources naturelles recherche un Expert Power BI H/F Descriptif de la mission: Notre client grand compte recherche un expert Power BI. L'objectif de ce projet est de développer un outil digital transverse pour capitaliser et partager les connaissances au sein de la communauté afin de faciliter l'activité de benchmark et d'aide aux décisions d'investissement. Le candidat aura pour mission de structurer et consolider une plateforme multidisciplinaire sous Power Bi sous la supervision de l'équipe d'étude de développements. Le service demandé couvrira les parties suivantes : 1. AMOA : ➢ Finalisation de l’expression de besoins, la rédaction des exigences et l’analyse de l’existant en termes de sourcing et d’outils similaires 2. MOE : ➢ Proposition d’architecture technologique qui tient compte de l’environnement technologique ➢ Mise en œuvre et développement de la solution retenue 3. Encadrement d’une ressource stagiaire (profil Data Analyst)

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !