Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance Responsable d'applications (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Responsable d'applications (H/F) à Lille, Hauts-de-France, France. Les missions attendues par le Responsable d'applications (H/F) : - Analyser et corriger les erreurs d’interfaces entre nos différentes applications. - Coordonner les actions correctrices dans les outils amont avec les responsables d’application concernés : exécution des interfaces, qualité des données, … - Mettre en œuvre les changements de paramétrage décidés - Gestion des droits, des accès, des permissions, … - Piloter les interfaces entre les systèmes amonts et le Datalake Azure - Traitement de données via Azure Data Factory (maintenance de flux, correction, développement). - Charger en masse les données de référence à partir des templates existants. - Faire le lien avec l’éditeur sur les sujets techniques. - Suivre les incidents IT ouverts auprès de l’éditeur. - Rédaction des spécifications fonctionnelles d’évolution pour l’éditeur ou pour nos services IT. - Interlocuteur privilégié entre nos utilisateurs métier et les services IT.
Mission freelance Responsable d'Applications (H/F)
Finalités de la mission : Analyser et corriger les erreurs d’interfaces entre les différentes applications. Coordonner les actions correctrices dans les outils amont avec les responsables d’application concernés : exécution des interfaces, qualité des données, … Assurer la maintenance applicative Gestion des droits, des accès, des permissions, … Piloter les interfaces entre les systèmes amonts et le Datalake Azure Traitement de données via Azure Data Factory (maintenance de flux, correction, développement). Charger en masse les données de référence à partir des templates existants. Faire le lien avec l’éditeur sur les sujets techniques. Suivre les incidents IT ouverts auprès de l’éditeur. Rédaction des spécifications fonctionnelles d’évolution Effectuer la maintenance évolutive et corrective des flux inter applicatifs existants
Mission freelance Responsable d’applications - interfaces / flux / Azure Data Factory
Nous recherchons pour l’un de nos clients un Responsable d’applications. Le poste est au siège international d’un groupe situé à Villeneuve d’Ascq, proche Croix. Mission Générale. - Sur notre solution internationale d’Asset management SONEKA (en cours de déploiement) : o Assurer la maintenance applicative (responsable d’applications) o Effectuer la maintenance évolutive et corrective des flux inter applicatifs existants. Finalités de la mission - Analyser et corriger les erreurs d’interfaces entre nos différentes applications. - Coordonner les actions correctrices dans les outils amont avec les responsables d’application concernés : exécution des interfaces, qualité des données, … - Mettre en œuvre les changements de paramétrage décidés dans SONEKA. - Gestion des droits, des accès, des permissions, … - Piloter les interfaces entre les systèmes amonts et le Datalake Azure d’une part – et entre le Datalake Azure et SONEKA d’autre part. - Traitement de données via Azure Data Factory (maintenance de flux, correction, développement). - Charger en masse les données de référence à partir des templates existants. - Faire le lien avec l’éditeur sur les sujets techniques. - Suivre les incidents IT ouverts auprès de l’éditeur. - Rédaction des spécifications fonctionnelles d’évolution pour l’éditeur ou pour nos services IT. - Interlocuteur privilégié entre nos utilisateurs métier et les services IT.
Mission freelance Responsable d'application Azure data
Mission Générale. - Sur notre solution internationale d’Asset management (en cours de déploiement) : o Assurer la maintenance applicative (responsable d’applications) o Effectuer la maintenance évolutive et corrective des flux inter applicatifs existants. Finalités de la mission - Analyser et corriger les erreurs d’interfaces entre nos différentes applications. - Coordonner les actions correctrices dans les outils amont avec les responsables d’application concernés : exécution des interfaces, qualité des données, … - Mettre en œuvre les changements de paramétrage. - Gestion des droits, des accès, des permissions, … - Piloter les interfaces entre les systèmes amonts et le Datalake Azure d’une part – et entre le Datalake Azure et le produit cible d’autre part. - Traitement de données via Azure Data Factory (maintenance de flux, correction, développement). - Charger en masse les données de référence à partir des templates existants. - Faire le lien avec l’éditeur sur les sujets techniques. - Suivre les incidents IT ouverts auprès de l’éditeur. - Rédaction des spécifications fonctionnelles d’évolution pour l’éditeur ou pour nos services IT. - Interlocuteur privilégié entre nos utilisateurs métier et les services IT.
Mission freelance Data engineer & BI
o Data engineering : mise à disposition des données dans le datalake au format delta lake (Azure Databricks) ▪ Conception des flux data ▪ Développement des pipelines de données avec ADF et Databricks (ingestion Bronze/ Implémentation Silver) ▪ Mise en œuvre avec le superviseur des flux du monitoring de ceux-ci ▪ Intégration des tests unitaires o Analyse & BI : ▪ Analyse des besoins ▪ Conception, élaboration et déploiement des rapports et tableaux de bord sous Power BI à partir du Gold ▪ Modélisation des datamarts ▪ Analyses de données et Requêtages ▪ Maintenance évolutive et corrective o Coordination des intervenants SI o Rédaction de spécifications & Documentation o Mise en place des exigences RGPD/SSI
Offre d'emploi Data Engineer Databricks
Conception de l'architecture de données : Concevoir et mettre en œuvre une architecture de données robuste et évolutive sur la plateforme Databricks. Définir les schémas de données, les pipelines ETL et les flux de données pour répondre aux besoins métier. Développement de pipelines ETL : Développer des pipelines ETL pour extraire, transformer et charger les données à partir de sources variées vers le lac de données Databricks. Utiliser des outils comme Apache Spark pour traiter de gros volumes de données de manière efficace et distribuée. Optimisation des performances : Optimiser les requêtes Spark pour améliorer les performances des traitements de données. Utiliser des techniques telles que le partitionnement, la mise en cache et la gestion de la mémoire pour optimiser l'exécution des jobs Spark. Gestion des données en temps réel : Mettre en place des pipelines de traitement de données en temps réel à l'aide de technologies comme Apache Kafka et Apache Spark Streaming. Traiter les flux de données en continu pour fournir des analyses en temps réel et des insights instantanés. Gestion de la qualité des données : Mettre en place des contrôles de qualité des données pour garantir l'intégrité et la fiabilité des données. Développer des processus de nettoyage, de normalisation des données pour maintenir leur qualité. Sécurité des données : Mettre en place des mesures de sécurité pour protéger les données sensibles et confidentielles. Utiliser des fonctionnalités de sécurité avancées de Databricks telles que le chiffrement des données et la gestion des accès pour garantir la confidentialité et l'intégrité des données. Automatisation des workflows : Automatiser les workflows de traitement de données en planifiant et en orchestrant les jobs ETL à l'aide de Databricks Jobs ou d'autres outils de planification. Mettre en place des déclencheurs pour déclencher des actions en réponse à des événements spécifiques sur la plateforme de données. Surveillance et gestion des opérations : Surveiller les performances et la santé de la plateforme de données en utilisant des outils de surveillance comme Databricks Metrics et Databricks Monitoring. Gérer les incidents et les problèmes opérationnels en assurant une disponibilité continue des services de données. Collaboration avec les équipes métier : Travailler en étroite collaboration avec les équipes métier pour comprendre leurs besoins en matière d'analyse de données et de reporting. Fournir un support technique et des conseils pour aider les utilisateurs à accéder et à analyser les données sur la plateforme Databricks. Veille technologique : Suivre les évolutions dans le domaine du Big Data et du traitement des données pour intégrer les nouvelles technologies et les meilleures pratiques dans la plateforme de données Databricks.
Mission freelance Ingénieur Linux
Concevoir, déployer et maintenir les solutions de transfert de fichiers basées sur la technologie Axway. Gérer et optimiser les performances des environnements de transfert de fichiers. Collaborer avec les équipes de développement pour intégrer les solutions de transfert de fichiers dans les applications existantes. Assurer la sécurité des données lors des transferts en mettant en œuvre des protocoles et des mesures de sécurité robustes. Fournir un support technique de niveau 3 pour résoudre les problèmes liés aux transferts de fichiers. Effectuer la surveillance proactive des systèmes pour garantir la disponibilité et la fiabilité des services de transfert de fichiers. Documenter les procédures opérationnelles et maintenir à jour la documentation technique.
Offre d'emploi Ingénieur système Linux Transfert fichiers - H/F
Au sein de la Direction des Opérations, la ligne de produits Middleware est responsable des communications entre les applications et avec les partenaires. Vous seriez intégré au service « Connectivité » en charge de l’ingénierie, du développement et de l’exploitation des passerelles techniques, le prestataire contribuera au support, à la mise en place et au suivi opérationnel des solutions hautement disponibles mises en place dans le service : TRANSFERS DE FICHIERS Le mode de travail de l’équipe est construit autour du framework Agile/SAFE. Votre tâche consiste à mettre en place l'environnement nécessaire pour accueilir de nouveaux transferts des fichiers, notamment avec KLM. Votre rôle est d’assurer les tâches suivantes : • Création/Intégration de script Linux pour invoquer les nouveaux flux (shell et Python) • Installation de l’environnement XFB sur les machines avec les permissions: création de folders, création de clés SSH pour les flux XFB, gestion de permissions sur les folders. Automatiser autant que possible cette partie • Test de la configuration et test de bout en bout avant la livraison • Création/modification de dashboards sous ElasticSearch/Kibana pour le monitoring • Gestion et suivi du paramétrage sous Azure • Gestion et suivi du paramétrage du système d’exploitation et des applications de transfert • Création et maintien à jour de la documentation • Gestion des incidents • Gestion et suivi des performances • Support aux équipes de développement métier pour l’analyse des flux en recette ou production • Participation aux projets • Développement logiciel des applications nécessaires à l’automatisation et l’administration des produits • Veille technologique. Des déplacements ponctuels sont à prévoir (France et Pays-Bas principalement).
Offre d'emploi Développeur Power Apps (F/H)
Dans le cadre d'un nouveau projet chez un de nos clients à basé à Aix-en-Provence, nous sommes à la recherche d'un développeur Power Apps (F/H). Vos principales missions seront les suivantes : Animer des ateliers pour recueillir les besoins des utilisateurs Rédiger et maintenir des documents fonctionnels et techniques Réaliser l’implémentation des solutions low-code/no-code ne nécessitant que peu ou pas de développement (type Power Apps, Power Automate, Power BI) Accompagner les utilisateurs sur l’environnement Power Platform et les outils Microsoft 365 Réaliser la recette des applications développées
Offre d'emploi Ingénieur Linux
Contexte : Au sein de notre Centre de Compétences, vous intégrez une agence dynamique qui compte près de 150 collaborateurs. Vous évoluez au sein d'une équipe où travail rime avec bonne humeur. Dans un environnement de production à haute disponibilité, vous êtes un maillon clé à la bonne réalisation des missions au sein de l'équipe. Missions : En collaboration avec une équipe pluridisciplinaire vos principales missions sont : • Vous assurez le maintien en condition opérationnelle, traitez et suivez la résolution des incidents des infrastructures de nos clients, spécifiquement du périmètre Linux sur des socles d’infrastructure virtualisé et on-premise chez nos clients grand compte ou interne • Vous menez les projets d’évolution des infrastructures Linux • Vous participez aux astreintes et interventions HNO • Vous participez à l'innovation au sein des communautés techniques Selon vos envies et désirs d’apprentissage, selon les besoins de nos clients, ces missions sont évolutives. Compétences techniques • Expérience dans le domaine de la production informatique • Bonne capacité de communication : travail en équipe, situation de crise, astreinte, … • Bonnes connaissances dans l’administration/ingénierie Linux (Redhat/CentOS, Debian, Suse) • Bonnes Connaissances sur la sécurité des environnements Linux (Spacewalk/ Redhat Satellite, FreeIPA, SSSD, Antivirus type Trend) • Bonnes connaissances des Infrastructures Virtualisation (Type VMWare, Nutanix) • Bonnes connaissances sur la gestion des Certificats, WSUS, politique de sécurité • Bonnes connaissances sur la gestion des logs avec les outils de type Syslog, Gray log, Splunk • Bonnes connaissances sur la gestion de Proxy/Reverse Proxy • Vous maîtrisez les outils d'automatisation type Shell, Python, PowerShell, Ansible, … • Bonnes notions SAN, NAS, Réseau, Sauvegarde, Supervision • Connaissances Cloud Computing (Microsoft Azure, AWS, Google) appréciées Savoir-faire et savoir être Diplômé(e) d'un Bac+5 et issu(e) d'une école d'Ingénieur(e) ou équivalent, vous justifiez d'au moins 2 ans d'expérience professionnelle en environnement de production ou d’Infogérance. Votre niveau d'anglais est opérationnel.
Offre d'emploi Développeur PySpark / Data Engineer (h/f)
Le Data Engineer va intégrer l’équipe Data & RPA du Département Guilde Data, qui regroupe l’ensemble des expertises technologiques liées à l’ingénierie de la donnée, de l’automatisation et à l’exploitation des modèles de Machine Learning. Cette Guilde est dédiée au service et équipes (Data office, Tribus, Business, Transformation Office etc.), afin de fournir, en collaboration avec le Data Office, les plateformes (RPA, BI, Data, …) et les données nécessaires aux équipes chargées de délivrer les cas d’usages, puis les déployer et les maintenir en conditions opérationnelles. Vous serez directement rattaché(e) au Responsable de l’équipe Data & RPA au sein de la Direction Technologies. Vous allez contribuer directement aux projets des directions métier (ex : Fraude santé, DSN, Pricing IARD, Optimisation du lead management, Fragilité Auto, …). La Direction Transformation Digital Tech et Data en quelques mots : - Une organisation agile en feature teams : tribus, guildes, squads - Des projets sur des applications innovantes à fort trafic (web, mobile…) - Des méthodologies craft (TDD, BDD, clean code, code review…) et DevOps - Une communauté de partage de bonnes pratiques (BBL, dojo, meetup, conf…)
Offre d'emploi Business Analyst Talend / Azure / ETL
Analyse des besoins métier et des processus existants Identification des opportunités d'amélioration et recommandation de solutions informatiques Élaboration de spécifications fonctionnelles et techniques Rédaction de la documentation en collaboration avec l'architecte Azure (contrat d'interface, mapping de données, règles de gestion etc..) Coordination avec les équipes de développement pour assurer la livraison des fonctionnalités attendues Rédaction du cahier de recette Conduite du changement Participation à la planification et à la gestion de projets
Offre d'emploi Data Engineer (H/F)
💡 Missions pour le Data Engineer : Développement et maintenance : Créer et maintenir des ETLs et des pipelines de données robustes en utilisant Talend, MS BI, Azure ( DataFactory ), GCP ( BigQuery ) , SQL, Python, Scala... Modélisation des données : Proposer des modèles de données fiables et optimisés en termes de stockage et de traitement. Automatisation : Implémenter des processus de CI/CD pour automatiser le déploiement et la gestion des infrastructures de données. Analyse et reporting : Développer des rapports et des dashboards en utilisant Looker, Power BI, Qlikview, Tableau, pour faciliter l'accès aux insights data-driven.
Mission freelance Architecte big data HDP ou CDP on premise - Sophia Antipolis
Architecte big data HDP ou CDP on premise Au sein de l’équipe socle BigData, en lien avec le product owner socle et l’architecte déjà présent, le profil prend un rôle d’architecte / expert sur le socle BigData : • Porter des sujets d’architecture pour intégrer le Cloudera Data Platform • Contribuer à l’industrialisation de notre plateforme Big Data (déploiement des composants, supervision, sécurité, etc…), • Rédiger des modes opératoires et des documentations techniques pour faciliter la compréhension et la montée en compétence de l’équipe, • Qualifier et chalenger les architectures applicatives proposer par les équipes projets • Identifier les faiblesses des environnements et proposer des solutions pour optimiser et améliorer la robustesse de la plateforme , • Apporter de l’expertise sur les incidents et être force de proposition sur les nouveaux usages (APIsation, PRA/PCI, etc…), • Si le profil a une fibre chef de projet / scrum master, il pourra prendre en charge une partie de l’animation de l’équip. Ces activités nécessitent une connaissance technique de l’environnement Hadoop Big Data acquise sur plusieurs architectures Big Data déployées en production, le sens du service et une forte autonomie. Une bonne vision d’ensemble sera nécessaire : sécurité, exploitation, etc… ü Livrables de la prestation : • Etudes d’architecture • POC : Code source commenté / Tests • Industrialisation de composant du socle • Documentations diverses ü Compétences techniques requises : • Maitrise d’une solution HDP ou CDP on premise • Cloudera Manager, Kerberos, Ranger • Kafka • Spark, Zeppelin • HDFS, Hive, Hbase • Oozie • Yarn • Jenkins • Docker L’ensemble de ces activités nécessitent une très bonne connaissance des composants Hadoop. Une expérience de 3 à 5 ans sur un poste d’architecte Big Data nous semble nécessaire pour bien appréhender ses activités. Ces activités nécessitent une forte autonomie, un mindset d’architecture et d’administration de plateforme Big Data, de la curiosité et une appétence pour la mise en place de solutions techniques. Un profil ayant une appétence pour l'animation d'équipe serait idéal. Une expérience réalisée sur un cluster sécurisé et « kerberisé » serait un plus, tout comme une expérience de déploiement de cluster à la demande.
Offre d'emploi Product Owner – Anglais – MARSEILLE
Dans le cadre de notre développement en région PACA, nous recrutons un Product Owner – (F/H ) chez notre client à Marseille. Il s’agit d’assurer le bon développement d’ outils à destination d’une transition énergétique de l’entreprise. Mener l' analyse du système et du process existant Collecter les besoins utilisateurs, aider à l’arbitrage, à la priorisation et formalisation des Use case Gérer le Backlog : Analyse d’impacts, priorisation, lotissement, découpage du projet, rédaction de la documentation (Epics, User stories, maquettage, spécifications) Rédiger les « user story » à partir de ces exigences avec les critères d’acceptances et définition des priorités pour identification d’un Backlog. Organiser les ateliers et validation des maquettes avec les équipes web. Assurer la recette : rédaction des scénarios de tests, définition des jeux de données, réalisation des tests. Accompagner les équipes de maitrise d’œuvre (Web , BI, data ) dans leur compréhension des attentes du métier tout au long de la phase d’implémentation. Préparer le déploiement des outils : identification des sujets de conduite du changement, rédactions des documents d’accompagnement/ formation. Superviser la mise en place des outils, process et/ ou systèmes Proposer des solutions de remplacement ou d’un protocol d’évolution Améliorer la Data Quality des donnes clés pour le projet. Reporter l’avancement aux chefs de projet métier et à l’IT. Mode = 3 jours de présentiel – 2 jours de télétravail. Livrables attendues : • Business Requirement Détaillés • User Stories, définition des jeux de données • Cahier de test utilisateur pour la recette des applications • Rédaction des guides utilisateur • Plan de déploiement
Offre d'emploi DevOPS
Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes
Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !