Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 156 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance Consultant BigQuery

CAT-AMANIA
Publiée le
BigQuery
Data analysis

2 ans
100-470 €
Niort, Nouvelle-Aquitaine

Dans le cadre de votre mission : • travailler en relation étroite avec l'quipe DATA pour alimenter et automatiser l’ensemble des reporting • concevoir, développer et maintenir des pipelines de données robustes utilisant SQL et BigQuery. • assister les équipes projets dans leurs besoins de données • assister les équipes d’analystes dans leurs études • réaliser des études data à la demandes des métiers, • être force de proposition sur les méthodes / techniques à mettre en place pour répondre aux demandes d’études

Freelance

Mission freelance Architecte Datacenter

Exiptel
Publiée le
Data Center
F5
Routeurs Cisco

6 mois
620-780 €
Puteaux, Île-de-France

La mission consiste à concevoir et formaliser l’architecture du futur Datacenter puis à décliner le Dossier d’Architecture Général (DATG) et le Dossier d’Architecture Détaillé (DATD). Ce nouveau Datacenter en zone APAC sera similaire à ceux déjà existants (France). Pour la définition de l’architecture, l’architecte en charge devra échanger avec l’ensemble des experts du groupe dans chaque technologie. Il se référera au responsable des architectes réseaux. Il prendra en charge, en toute autonomie, la rédaction du DATG et DATD, avec en support les experts et des responsables de services de chaque technologie. l’équipe projet inclut : Architecture Réseau et Sécurité référent Experts Réseau et Sécurité Chef de Projet Responsable de la Sécurité du Système d’Information Industriel La mission consiste en : Lancement du projet Coordination des ateliers d’architecture Formalisation des architectures techniques intégrant les briques d’architecture déjà en place et/ou la description des impacts sur ces briques, en prenant en compte les principes de sécurité et d’urbanisation du groupe Rédaction du document d’architecture technique générale (DATG) Rédaction du document d’architecture technique détaillée (DATD) - coordination avec les experts de chacune des technologies Formalisation haut niveau des opérations de build Identification des impacts sur les « Standards » existants et mise à jour des documents Identification des impacts sur les « kits de déploiement » existants et mise à jour des documents Un livrable est tout résultat ou document, mesurable, tangible ou vérifiable, qui résulte de l’achèvement d’une partie de projet ou du projet lui-même. • Le Prestataire sera tenu de fournir les livrables suivants : • Note de cadrage du projet ; • Compte-rendu et présentation des Kick-Off et COPILs ; • Compte-rendu clôture projet ; • Compte rendu technique des ateliers d’architecture ; • Documentation d’Architecture Technique Générale « DATG » ; • Documentation d’Architecture Technique Détaillée « DATD » WP1 (DMZ) ; • Documentation d’Architecture Technique Détaillée « DATD » WP2 (DC zone) ; • Mise à jour des Documents « Standard »; • Mise à jour des Documents « Kit de déploiement ». Le kit de déploiement doit permettre à une société du groupe de pouvoir être autonome pour la mise en place du service (identification et implémentation des prérequis, détails des actions à mener pour intégrer les équipements permettant de fournir le service)

Freelance

Mission freelance Data Engineer

INFOTEL CONSEIL
Publiée le
Big Data

1 an
260-2 500 €
Paris, France

Nous cherchons pour l'un de client dans le secteur public Bancaire un Data enginner pour intégrer un un projet « Mieux évaluer et mieux prévenir les risques pour le système financier ». L’analyse du fonctionnement de la sphère financière et en particulier l’identification et la quantification des risques sont au cœur des missions du Pôle de Stabilité Financière. Ces travaux alimentent les échanges et les prises de décision au sein des enceintes françaises, européennes, et internationales de stabilité financière ainsi que les groupes de travail internationaux et les publications académiques. Dans ce contexte, le projet vise à fournir les données, les infrastructures de stockage et de traitement et les outils analytiques, en s’appuyant sur le projet DGSI Data Plateforme

Freelance

Mission freelance Data Quality Manager (H/F)

Mindquest
Publiée le
Data management

3 mois
100-450 €
Paris, France

Data quality : Collaborer avec les Data owner pour développer et mettre en œuvre des procédures, des normes et des KPI de qualité de données pour IDQ et ses sources de données. Surveiller, analyser et rendre compte des indicateurs de qualité des données, en garantissant le respect des réglementations en matière de sécurité et de confidentialité des données. Participer aux efforts continus pour assurer la qualité des données et la conformité aux politiques et réglementations en matière de gouvernance des données. Apporter aux membres de l’équipe une assistance et des conseils techniques sur l’outil IDQ. Mettre en place et suivre le déploiement des plans de mise en qualité de la donnée de chaque projet (des normes et processus de gestion) Être garant de la qualité de la donnée et avoir la charge d'optimiser la complétude, la conformité et l'intégrité de la donnée en mettant en place des outils d'analyse/recommandation/visualisation permettant d'animer et challenger les stakeholders concernés (internes/externes). Diagnostiquer les problématiques de non-qualité et initier les actions correctrices (analyse des causes de non-qualité). Contribuer à la conception et suivre l'exécution de la feuille de route « Qualité des données » Maitriser le fonctionnement et maintenir la solution IDQ Informatica et développer les modules spécifiques Documentation : Documenter, définir et développer les efforts d'amélioration de la qualité des données en collaboration avec les équipes techniques et toutes les parties prenantes. Maintenir une documentation précise des processus et modes opératoires liés à la mise en qualité des données Documenter et mettre à jour le dictionnaire de donnée afin de garantir la qualité des données sur le long terme Data gouvernance : Élaborer et mettre en œuvre des politiques de gouvernance des données, Gérer certains projets liés à la gouvernance des données de bout en bout, contribuer à d'autres.

Freelance

Mission freelance 85010/Chefferie de Projet Data Center Les Clayes-sous-Bois

WorldWide People
Publiée le
Data Center

6 mois
310-480 €
Les Clayes-sous-Bois, Île-de-France

Chefferie de Projet Data Center Les Clayes-sous-Bois Réception des DTC cibles: suivi des actions de Mise à Disposition et réception des datacenter (Champigny et Aulnay) (Note hypothèses, suivi réunion de suivi avec le TCE...) - s'assurer de la conformité des datacenters conformément aux exigences des note d'hypothèses émise par RMS, et signer les PV de réception, s'assurer du support pour la suite des installation après réception du DTC. Vérification des prérequis : plan d'urbanisation, matrice de brassage, etc. Planification du projet : Définir les objectifs, le périmètre, les ressources nécessaires, le budget, le calendrier et les étapes clés du projet d'installation dans le DTC. Cela inclut la compréhension des besoins en matière d'infrastructure, de matériel, de logiciels et de réseaux. Gestion des ressources : Identifier et allouer les ressources humaines, techniques et financières nécessaires à la réalisation du projet d'installation dans le DTC. Cela comprend la gestion d'équipes multidisciplinaires incluant provenant de divers cotraitants et des équipes DTC Coordination et communication : Assurer la liaison entre toutes les parties prenantes du projet, y compris les fournisseurs, les entrepreneurs, les équipes internes et les clients. Communiquer l'avancement du projet, résoudre les conflits et assurer que tout le monde est aligné sur les objectifs. Gestion des risques : Identifier les risques potentiels liés au projet et mettre en place des plans de mitigation pour les éviter ou les gérer si ils se réalisent. Cela inclut la gestion des risques techniques, financiers et opérationnels. Contrôle de la qualité : Veiller à ce que le projet d'installation DTC soit réalisé conformément aux standards de qualité requis, aux meilleures pratiques de l'industrie et aux réglementations en vigueur. Cela implique des inspections régulières, des tests et des validations à différentes étapes du projet. Gestion du budget : Suivre et contrôler les dépenses pour s'assurer que le projet reste dans les limites du budget approuvé. Cela peut impliquer la renégociation de contrats, la recherche de solutions plus rentables et l'ajustement des plans en fonction des contraintes budgétaires. Livraison du projet : Assurer que le projet est livré dans les délais, dans le respect du budget et avec le niveau de qualité attendu. Cela comprend la supervision de la mise en service, la réalisation des tests finaux et la transition vers les opérations courantes. Documentation et formation : S'assurer que toute la documentation nécessaire est complète et à jour, et que les équipes opérationnelles sont formées pour gérer et maintenir le datacenter une fois le projet terminé.

Freelance

Mission freelance ARCHITECTE DATA INTEGRATION (CPM) H/F

AXONE BY SYNAPSE
Publiée le
Architecture
BI
Business Object

6 mois
500-700 €
Rueil-Malmaison, Île-de-France

AXONE recherche pour une de ses clients un ARCHITECTE DATA INTEGRATION (CPM) H/F pour une mission de 6 mois renouvelable (longue durée) basée à RUEIL-MALMAISON (92). Responsabilités: Analyse et construction du processus ETL, documentation de la conception du script, développement et tests. Participation à la nouvelle définition de la solution (ETL ou BI avec Datamarts). Fournir des recommandations et des lignes directrices sur la nouvelle architecture et la conception afin d'avoir une solution évolutive. Construire des rapports BI et des tableaux de bord comme demandé. Mise en place et exploitation des systèmes d'information de l'entreprise, gestion de l'information, gestion des ressources humaines et gestion de l'environnement. Expert en transformation et manipulation de données (Excel, Access, outils BI comme OBIEE, tableau, etc.). Forte connaissance et expérience des progiciels de reporting (Business Objects etc), des bases de données (SQL etc), de la programmation (XML, Javascript, ou ETL frameworks). Expérience et aisance à travailler quotidiennement à distance avec des équipes offshore. Capacité à discuter à la fois de sujets business et techniques. Capacité à travailler sur plusieurs projets en parallèle et à organiser/définir les priorités au sein de l'équipe (Leadership). Participer à l'atelier pour établir les règles d'un moteur de transformation générique. Analyse et construction des processus ETL, livrables techniques + documentation. Identifier les transformations de données nécessaires et les impacts sur la solution existante, étude d'impact. Gérer l'équipe middleware : fournir des inputs pour la construction, organiser la livraison. CHR, planning, statut hebdomadaire. N'hésitez pas à m'envoyer votre candidature. Sylvain | AXONE

Freelance

Mission freelance Data Analyst (H/F)

LeHibou
Publiée le
Data analysis
Data science

1 an
500 €
Meudon, Île-de-France

Notre client dans le secteur Réseaux et télécommunications recherche un Data Analyst (H/F) H/F Descriptif de la mission: Le client est un acteur majeur dans le secteur des télécommunications. La Direction Produits et Plateformes de Services, en innovation continue, a pour rôle de concevoir, développer et déployer les nouveaux produits et service du fixe du futur. En tant que Data Analyst/Scientist, vous serez responsable de l’intégration, du traitement et de l’analyse des données pour aider à prendre des décisions éclairées, améliorer l'efficacité opérationnelle et la qualité de service chez nos clients. Vos principales missions seront les suivantes : - Collecter, nettoyer, analyser, mettre en forme et interpréter des données provenant de diverses sources internes et externes. - Collaborer avec des équipes transverses pour identifier les indicateurs clés de performance (KPI) et les objectifs de l'entreprise. - Utiliser des outils d'analyse de données et des logiciels de visualisation (tels que Excel, Python, R, Tableau, Power BI) pour traiter et analyser des ensembles de données volumineux. - Développer et maintenir des rapports, des tableaux de bord et des visualisations de données pour faciliter le suivi des performances, leurs dérives et la prise de décision. - Identifier les tendances, les anomalies et les opportunités d'amélioration dans les données et leurs croisements. - Présenter les résultats de l'analyse aux parties prenantes et formuler des recommandations pour améliorer les opérations et les performances. - Contribuer à des projets d'analyse prédictive pour anticiper les tendances et les problèmes potentiels.

Freelance

Mission freelance Architecte big data HDP ou CDP on premise - Sophia Antipolis

WorldWide People
Publiée le
Big Data
Hadoop

12 mois
380-400 €
Sophia Antipolis 1, Provence-Alpes-Côte d'Azur

Architecte big data HDP ou CDP on premise Au sein de l’équipe socle BigData, en lien avec le product owner socle et l’architecte déjà présent, le profil prend un rôle d’architecte / expert sur le socle BigData : • Porter des sujets d’architecture pour intégrer le Cloudera Data Platform • Contribuer à l’industrialisation de notre plateforme Big Data (déploiement des composants, supervision, sécurité, etc…), • Rédiger des modes opératoires et des documentations techniques pour faciliter la compréhension et la montée en compétence de l’équipe, • Qualifier et chalenger les architectures applicatives proposer par les équipes projets • Identifier les faiblesses des environnements et proposer des solutions pour optimiser et améliorer la robustesse de la plateforme , • Apporter de l’expertise sur les incidents et être force de proposition sur les nouveaux usages (APIsation, PRA/PCI, etc…), • Si le profil a une fibre chef de projet / scrum master, il pourra prendre en charge une partie de l’animation de l’équip. Ces activités nécessitent une connaissance technique de l’environnement Hadoop Big Data acquise sur plusieurs architectures Big Data déployées en production, le sens du service et une forte autonomie. Une bonne vision d’ensemble sera nécessaire : sécurité, exploitation, etc… ü Livrables de la prestation : • Etudes d’architecture • POC : Code source commenté / Tests • Industrialisation de composant du socle • Documentations diverses ü Compétences techniques requises : • Maitrise d’une solution HDP ou CDP on premise • Cloudera Manager, Kerberos, Ranger • Kafka • Spark, Zeppelin • HDFS, Hive, Hbase • Oozie • Yarn • Jenkins • Docker L’ensemble de ces activités nécessitent une très bonne connaissance des composants Hadoop. Une expérience de 3 à 5 ans sur un poste d’architecte Big Data nous semble nécessaire pour bien appréhender ses activités. Ces activités nécessitent une forte autonomie, un mindset d’architecture et d’administration de plateforme Big Data, de la curiosité et une appétence pour la mise en place de solutions techniques. Un profil ayant une appétence pour l'animation d'équipe serait idéal. Une expérience réalisée sur un cluster sécurisé et « kerberisé » serait un plus, tout comme une expérience de déploiement de cluster à la demande.

Freelance

Mission freelance Data Engineer Confirmé H/F - Toulouse / Remote

LeHibou
Publiée le
Big Data

6 mois
420-460 €
Toulouse, Occitanie

Notre client dans le secteur Transport et logistique recherche un Data Engineer Confirmé H/F Descriptif de la mission: Dans le cadre de l'un de ses projets, notre client souhaite faire appel à un Freelance expérimenté sur la Data Vous serez intégré aux équipes BI-Big Data composé d'un chef de projet et d'un développeur, qui ont en charge la conception et livraison des solutions Bi / Big data Travail en mode Agile/Safe (suite Atlassian/JIRA/Confluence), en collaboration avec nos AMOs et MOAs du domaine CLIENT

Freelance
CDI

Offre d'emploi Lead Data Scientist (h/f)

HR-TEAM
Publiée le
Data science
Hadoop
Python

12 mois
60k-70k €
Paris, France

Nous recherchons un Lead Tech Data Scientist pour intervenir sur un projet à forte valeur ajouté. Contexte : Contexte organisationnel : Au sein de la tribu DATAFACTORY, Squad Usages DATA & IA Contexte Projet : Moteur de recommandation (Next Best Offer) Dans le contexte d'un marketing customer-centric dont l’objectif n’est plus de créer des segments uniformes mais de comprendre les besoins et les comportements des clients pour promouvoir des offres et des produits personnalisés. Tâches : • Organiser et piloter la fabrication du projet dans sa composante développement et industrialisation (définition des US en coordination avec le lead data science, le business analyst, chiffrages, priorisation en appui du PO). • Prendre part à la fabrication du projet (entre 60% et 80% selon les phases): en coordination avec les nombreuses parties prenantes : - avec les squads "fabricantes" du projet (Pole Produit data / Squad Usages DATA & IA, Pole Produit Marketing Communication, autres ...) - avec les experts référents (architecture, devops, sécurité, tests, ...) - avec les partenaires internes au Groupe • Faire de la pédagogie notamment lors des cérémonies agiles type démo, pour présenter l’avancée des travaux d’un pt de vue utilisateur et métier, en binôme avec le lead data science et la Business Analyst. • Contribuer à la monter en compétence sur la data ingénierie les ML ingénieurs internes + junior de la Squad Usages IA

CDI

Offre d'emploi Administrateur jira

PROXIEL
Publiée le
Data Center
Groovy
JIRA

27k-43k €
Montpellier, Occitanie

Nous recherchons un Administrateur JIRA H/F, afin d’intégrer notre client basé sur Montpellier. Mission : Dans la mise en place des produits JIRA Service Management (JSM) / Jira Software (JSW) / Confluence Mode Data Center, vous aurez à charge les missions suivantes : • Prendre connaissance du projet et du paramétrage tel qu’il a été réalisé • Définir le plan de déploiement des nouvelles équipes basculant sur Jira • Administrer et adapter le paramétrage de JSM, JSW et Confluence • Gérer les utilisateurs et les habilitations dans JSM, JSW et Confluence • Administrer et paramétrer les projets JIRA • Administrer et paramétrer les référentiels dans Assets (JIRA) • Administrer et paramétrer les espaces Confluence • Développer et maintenir des scripts Groovy (Plugin Script Runner) • Développer et paramétrer les interfaces nécessaires avec d’autres outils • Accompagner en interne les équipes informatiques sur l’utilisation des API • Conseiller, apporter un support auprès de tous les utilisateurs • Former les utilisateurs à JIRA, Confluence : Dispenser et faire évoluer les supports de formation • Rédiger et mettre à jour les différentes documentations utilisateurs et techniques • Réaliser les montées de versions Compétences techniques globales : Exigences de compétences, avec une maitrise et autonomie sur les points suivants : • Connaissances avancées de l’administration, du paramétrage et du scripting (langage Groovy) JIRA (JSM, JSW) + Confluence en mode Data Center • Savoir analyser les logs et intervenir en premier niveau en cas de problèmes techniques sur les instances JIRA et Confluence» • Connaissances en API Rest • Connaissance des principaux plugins / modules utilisés dans le cadre du projet (Script Runner, Automation for Jira, Assets) • Connaissances du processus de montées de versions (analyser les impacts, planifier, réaliser, communiquer) Serait un plus : • Philosophie Agile et méthodologies associées • Compréhension de l’environnement technique (Java, Javascript, PostgreSQL, Linux)

CDI

Offre d'emploi Data Scientist Confirmé

MEETSHAKE
Publiée le
Big Data

60k-65k €
Neuilly-sur-Seine, Île-de-France

Maîtriser les outils statistiques et les informations nécessaires à la mise en place de bases de données, Gérer parfaitement les différentes technologies spécifiques au Big Data, Trouver des sources de données pertinentes, et extraire les données du système source, Mettre en œuvre le data warehouse "entrepôt de données"... (DMP / Data Management Platform), Assurer les mises à jour régulières des bases de données et contrôler la qualité des données, Traduire des données business en données statistiques, et analyser les informations chiffrées issues des activités de l’entreprise, Concevoir et faire évoluer les tableaux de suivi et de pilotage des activités, Optimiser les segmentations client au travers de données comportementales, Synthétiser et vulgariser les informations pour les rendre accessibles aux dirigeants de l’entreprise et aux équipes.

Freelance

Mission freelance Ingénieur DATA

NETSEC DESIGN
Publiée le
Big Data

2 ans
110-3k €
Paris, France

On recherche un ingénieur DATA pour le besoin ci dessous : Missions : - Maintenance corrective et évolutive sur les jeux de données de reporting Finance mis à la disposition des actuaires (contrats, rétrocession, cashflows, ...) - Maintenance et création de tableaux de bord Tableau - Devenir un référent au sein de notre escouade agile dédiée au reporting Livrables : Modèle de données évolutions et corrections Tableau Dashboards : créations, évolutions, corrections Poste : Data Engineer Expérience : +7 années minimum

Freelance

Mission freelance Data Analyst modélisation

HN SERVICES
Publiée le
Data analysis
Google Dashboard
Microsoft Power BI

3 ans
100-800 €
Île-de-France, France

Opportunité de mission pour une grande banque de finance française Recherche un data analyst sénior : Bonnes compétences en PowerBI requises Notions en Data modélisation et dashboard éxigées Mission longue durée Niveau anglais B2 Démarrage asap La mission se déroulera à Charenton-le-Pont Une ou plusieurs expériences dans l'environnement de la finance requises xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

Freelance

Mission freelance Data Engineer AWS retail

REESK CONSULTING ( ENABLING )
Publiée le
AWS Cloud
Data visualisation
Gestion de projet

6 mois
580-590 €
Île-de-France, France

Responsabilités : Créer et maintenir les pipelines de données sur AWS. Développer des interconnexions entre les systèmes Cloud et on-premise. Concevoir et implémenter des solutions de datalake et de data warehouse. Assurer la qualité des données et fournir des rapports pertinents. Collaborer avec les métiers pour répondre à leurs besoins en matière de reporting et de dataviz. Industrie cible : Distribution et Retail. Compétences requises : Expérience avec AWS, en particulier AWS Glue pour l'intégration des données. Connaissance d'Amazon Q ou de tout autre outil pertinent d'OpenAI pour le traitement des données. Maîtrise de AWS Dataviz pour la création de rapports et de visualisations. Compétences avancées en Python pour le développement de solutions de traitement de données. Familiarité avec Apache Airflow pour l'orchestration des tâches et des workflows. Capacité à travailler efficacement dans un environnement Cloud et on-premise. Compréhension des besoins spécifiques du secteur de la distribution et du retail en matière de données. Technologies utilisées : AWS (Cloud et on-premise), AWS Glue. Outil d'OpenAI pour le traitement des données (comme Amazon Q). Python pour le développement. Apache Airflow pour l'orchestration des tâches. Autres outils potentiels : Kik, etc. Durée de la mission : 6 mois. Localisation/télétravail : 3 jours par semaine (Paris/Ile de France) Possibilité full remote

CDI

Offre d'emploi Customer Success Manager F/H

XELIANS
Publiée le
Animation
Client
Comité de pilotage (COPIL)

40k-50k €
Villeneuve-la-Garenne, Île-de-France

Envie d’évoluer dans un environnement technique riche ? Envie de participer à un projet ambitieux ? Sens du service et satisfaction client te définissent ? Si tu réponds OUI à ces 3 questions, c’est que tu es fait(e) pour nous rejoindre ! Ta mission, si tu l’acceptes, sera d’intégrer la Direction des Opérations d’Archivage Electronique afin de développer l’usage de nos solutions d’archivage électronique et d’être le garant de la satisfaction client. Ton quotidien sera rythmé par : - La stimulation de la vente de nouveaux services/modules/fonctionnalités (up-selling) et nouveaux produits (cross-selling) pour augmenter la satisfaction client - La fidélisation des clients en veillant à leur satisfaction sur les services & produits vendus - L’animation des comités de suivis des prestations prévus dans les contrats (indicateurs de performance, suivi du plan d’actions) - Le suivi de la mise en œuvre des actions vendues au client en coordonnant les équipes Xelians (administration fonctionnelle, chefs de projets BUILD, DSI, commerce ) - La remontée aux CPO les besoins de nouvelles fonctionnalités ou les simplifications nécessaires - La mise en place du reporting de ton activité avec la réalisation d’un plan d’action et le suivi de ses indicateurs de performance - La collaboration avec le Responsable Support et Data dans la structuration de l’activité de supervision du RUN et l’évolution des offres de service du Support

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !