Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 460 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
AMOA BI

VISIAN
Publiée le
Informatica
Python
SQL

1 an
17k-55k €
Bagneux, Île-de-France

Le présent appel d’offre fait référence à la mobilisation d’une ressource sur un besoin financé. Cette dernière viendra renforcer l’équipe qui prend en charge le volet DATA des projets engagés par le client. Le rôle du ou de la consultante consistera à : • Participer à la phase de cadrage, à savoir challenger les besoins métiers et superviser le travail d’estimation (ex. fourniture pesage, chiffrage, planning, etc.). • Rédiger les expressions de besoins à destination des intégrateurs • Valider les solutions proposées par les intégrateurs (participation aux ateliers de conception, fiches de relecture SFD, fiches de relecture tests unitaires), tout en garantissant le respect du modèle objet métier • Gérer la relation entre les différents intervenants (DSI, Intégrateurs, équipe IT, etc.) • Accompagner les métiers dans la phase de validation (cf. recette) et de déploiement Il/elle sera en lien direct avec l'ensemble des commanditaires (métiers/DSI). Il/elle devra challenger les besoins et être force de proposition dans les solutions attendues. Il/elle sera responsable de la qualité des projets délivrés et de la tenue des délais. Il/elle devra avoir la capacité d’organiser son plan de charge en fonction de ses engagements et la disponibilité de ses interlocuteurs.

Freelance
CDI

Offre d'emploi
Data Engineer Devops

Atlanse
Publiée le
DevOps
Git
Gitlab

3 ans
10k-70k €
Issy-les-Moulineaux, Île-de-France

Vous interviendrez au sein de l’équipe Analytics et contribuerez au développement de la plateforme DataHub, dans un environnement international. Missions Analyser les besoins auprès des utilisateurs de Datahub (métiers, équipes IT, process...), formalisation des échanges, des process et développements à effectuer Activités DevOps pour les applications Datahub : Effectuer les déploiements et mises à jour d’applications sur clusters Kubernetes Assurer la customisation et les paramétrages avancés d’applications open-sources Participer à l’amélioration continue de la stabilité des applications Réaliser le monitoring des applications Veiller à la réalisation et au suivi des sujets d’architecture IT avec des spécialistes architecture IT (réseau, cluster Kuberneters, bases de données relationnelles, containers, usage des ressources de calculs) Réaliser les développements : Automatisation de tâches planifiées (rafraichissements de données, calculs de KPI, opérations techniques…) avec Python Traitement de données Parquet (modifications des données et schémas) avec pyArrow, pySpark ou polars Requêtes Adhoc, qualité de données, modélisation et réalisation de développements SQL complexes (Ex : datasets pour rapports BI), performance tuning

CDI

Offre d'emploi
Data Engineer (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Azure Data Factory
BigQuery
Google Cloud Platform

40k-50k €
Lille, Hauts-de-France

💡 Missions pour le Data Engineer : Développement et maintenance : Créer et maintenir des ETLs et des pipelines de données robustes en utilisant Talend, MS BI, Azure ( DataFactory ), GCP ( BigQuery ) , SQL, Python, Scala... Modélisation des données : Proposer des modèles de données fiables et optimisés en termes de stockage et de traitement. Automatisation : Implémenter des processus de CI/CD pour automatiser le déploiement et la gestion des infrastructures de données. Analyse et reporting : Développer des rapports et des dashboards en utilisant Looker, Power BI, Qlikview, Tableau, pour faciliter l'accès aux insights data-driven.

Freelance

Mission freelance
Ai Data Lead

K2 Partnering Solutions
Publiée le
Python

2 ans
100-610 €
Paris, France

SERVICE Nous recherchons un service de scientifique de données ayant au moins 3 ans d'expertise dans les domaines du traitement du langage naturel (NLP), des modèles de langage de grande taille (LLM) et de l'intelligence artificielle générative pour pourvoir ce poste. Le profil idéal aura une expertise dans le développement et l'évaluation d'applications basées sur LLM et RAG, ainsi qu'une expérience dans le réglage fin des LLM. MISSION Développer des applications en utilisant des modèles LLM et le motif RAG. Surveiller et évaluer la performance des applications basées sur LLM et faire des recommandations pour des améliorations si nécessaire. Ajuster les modèles selon les besoins. Collaborer à l'industrialisation des applications développées. Assurer la sécurité des applications développées et des données qu'elles traitent. Communiquer régulièrement avec différentes équipes au sein de l'entreprise, y compris les équipes commerciales et informatiques. Expertise : Au moins 3 ans d'expertise en tant que scientifique de données. Expertise avérée dans les grands modèles de langage et l'intelligence artificielle générative, avec un focus particulier sur les applications basées sur RAG. Forte expertise pratique dans l'évaluation des applications LLM et des outils et métriques associés. Expertise pratique dans le réglage fin des LLM et l'optimisation des modèles associés. Expertise avec les outils de cloud computing tels que Azure et AWS. Expertise avec LangChain ou LlamaIndex. Expertise avec les bases de données vectorielles. Compétences : Maîtrise forte du langage de programmation Python. Bonne culture et curiosité concernant les modèles et leur application. Expertise en éthique de l'IA. Anglais obligatoire.

Freelance
CDI

Offre d'emploi
EXPERT INTÉGRATION SOLUTION HYPERVISION BMC SENIOR (+ 12ans d'expérience )

Digistrat consulting
Publiée le
Git
Github
Perl (langage)

3 ans
40k-60k €
Paris, France

Périmètre fonctionnel : banque d'investissement / front Les principales tâches de la missions sont les suivantes : Assistance aux projets de convergeance des outils d'hypervision Participation au projets d'études pui mise en oeuvre d'une nouvelle solution d'hypervision Gestion des évolutions et des intégrations du moyen Support, expertise et assistance technique des entités, d’exploitation et de support de production Gestion de l'industrialisation et la gestion des améliorations du service d'hypervision Gestion de l’intervention en escalade sur le diagnostic et la résolution d’incidents ou problèmes Développements avancé et les configurations de l'outil Développement d'outils Développement : Shell, Script, Python Les livrables attendus sont : Assistance aux projets d'évolutions de l'infra d'hypervision Réalisation des Pocs Evolution des actions prises en charge Mise à jour de la documentation

Freelance

Mission freelance
Ingénieur en Cybersécurité

I.C.C
Publiée le
Firewall
IaaS (Infrastructure-as-a-Service)
ISO 27001

3 mois
100-500 €
Île-de-France, France

L'ingénieur expert en cybersécurité est chargé de protéger les systèmes, réseaux et données de l'entreprise contre les cybermenaces. En collaboration avec les équipes techniques, il met en place et maintient les mesures de sécurité adéquates et efficaces. Il est également responsable du pilotage opérationnel des solutions de sécurité du SI mises en œuvre par la DSI, ou en mode "services managés de sécurité". Acteur majeur de l'équipe SSI opérationnelle du SIP, il intervient en apport et support des directions opérationnelles pour les sujets de cybersécurité concernant les acteurs régulateurs et travaille en collaboration étroite avec le Responsable du SIP et le RSSI. Il sera mobilisé au même titre que le RSSI pour accompagner les chefs de projets de l’agence dans la mise en œuvre et le respect des principes de sécurité.

Freelance

Mission freelance
Responsable opérationnel d'applications

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Hive
Apache Kafka
Apache Spark

4 mois
100-1 500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Objectifs et livrables L’expertise technique sur le Datalake (plateforme Big Data) consistera à : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake : gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de mises en production · Contribuer à l’amélioration continue des outils d’exploitation · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

CDI
Freelance

Offre d'emploi
Site Reliability Engineer (SRE)

OTTEO
Publiée le
API REST
Automatisation
CI/CD

6 mois
42k-52k €
Lille, Hauts-de-France

Votre 1er projet : Vous accompagnerez notre client, entreprise historique de la région. Celle-ci est en cours de déploiement d’une nouvelle stack technique est à besoin de votre expertise. Votre intégrerez une équipe en charge du bon déploiement de cette stack et veillerez à gérer en parallèle l’ancienne qui est toujours en production. En tant que Production Expert, vous pourrez vous attendre non seulement à assumer la responsabilité de l'ensemble des questions de production de l'écosystème (monitoring, alerting, ...) mais aussi à aider à concevoir la meilleure expérience d'offre pour nos clients. Vos missions : · Mettre en place les mesures préventives et correctives pour assurer une haute disponibilité et fiabilité des applications. · Analyser, diagnostiquer et faire corriger des dysfonctionnements applicatifs ; · Fournir et mettre à la disposition des différentes équipes les KPIs et Metrics permettant de suivre en temps réel l’état “full stack” des applications (du front à l’infra ..). · Créer des logiciels, scripts, outils pour faciliter la gestion de la production et du support et pour automatiser toutes sortes de tâches. · Documenter les connaissances et les procédures opérationnelles · Répondre aux incidents, résoudre les dysfonctionnements et gérer les escalades · Leader les comptes rendus d’incidents de production (via des Post mortem par exemple), pour optimiser les cycles de développement et les cycles de vie des incidents. · Assurer le transfert et le partage de connaissances auprès des équipes de développement afin de contribuer à leur autonomie. · Assurer la prise en charge et le traitement des remontées utilisateurs · Être enclin à accompagner le suivi de production, gérer la communication d’incident sur le produit · Mettre en place et améliorer le monitoring, l’alerting et l’observabilité (dont les SLI/SLO, et le choix des Error budgets) technique et fonctionnel permettant une identification précoce des incidents. Vous vous y voyez déjà, pas vrai ? Ça tombe bien, ce n’est pas fini ! La cerise sur le gâteau : · Des chèques vacances et chèques cadeaux : notre CSE pense à vos petites folies et à vos week-ends prolongés ! · Une carte tickets restaurant (10€/jour dont 60% pris en charge par OTTEO) pour vos pauses déj’ ! · La participation aux bénéfices à débloquer immédiatement ou à faire fructifier sur votre PEE · Une prime liée à votre projet et des primes d’ambassadeurs (cooptation, apport d’affaires…) pour participer au développement de la société · Une mutuelle prise en charge à 100% pour veiller à votre santé · Une prévoyance améliorée pour les coups durs · La prise en charge à 100% de votre titre de transport . Prenons soin de la planète ! #ISO14001 · Des évènements festifs pour passer de bons moments entre collègues

CDI

Offre d'emploi
DBA Oracle / SQL

Group V.I.I ORIGIN
Publiée le
Ansible
MySQL
Oracle

10k-100k €
Lille, Hauts-de-France

Nous recherchons un DBA Oracle/SQL pour participer à un programme d’envergure nationale, en intégrant une organisation orientée DEVOPS dans un projet visant l’état de l’art de la sécurité. Les tâches au quotidien seront: - Etre partie prenante du projet dès son lancement afin d’apporter ses conseils et son expertise sur l’architecture à fournir en fonction du besoin exprimé par les clients - Installer et configurer les serveurs de bases de données selon les règles et standards propres à l’écosystème du client - Prendre en charge le diagnostic et la résolution des incidents et gérer les demandes d’évolution et de chargement des Bases de données - Participer à l’automatisation des process d’installation, de mises à jour et de rechargement des bases de données - Mettre en œuvre la sécurité des bases de données, les normes et les lignes directrices - Résoudre les problématiques de performance, grâce à ses capacités d'analyse - Formuler des propositions d’optimisation - Travailler sur des projets stratégiques et complexes, à forts enjeux et sur leur passage en production - Travailler de façon transverse avec les autres entités de systèmes, réseau, exploitation, sur des sujets communs à forte valeur ajoutée (virtualisation, OpenShift, Ansible…)

CDI
Freelance

Offre d'emploi
datascientist

GROUPE ALLIANCE
Publiée le
Machine Learning
Python

6 mois
50k-60k €
Île-de-France, France

Pour renforcer l'équipe R&D de la Direction du Numérique et de la Stratégie de l'Innovation de Radio France, nous cherchons un.e data scientist avec les compétences suivantes : Data science : • Forte expertise sur le domaine du NLP • Maîtrise des techniques d'apprentissage automatique (Machine learning) • Excellente connaissance des bibliothèques open source clés telles que TensorFlow, PyTorch, scikit-learn, Numpy, et Pandas • Une expérience en traitement automatique du signal audio sera appréciée • Une appétence pour la veille technologique Software/data engineering : • Parfaite maîtrise de Python • Appétence pour les travaux de préparation de données • Bonnes dispositions pour la mise en oeuvre de la CI/CD, comme Gitlab-CI • Connaissance de Kubenetes / Postgres appréciée Soft skills : • Une parfaite autonomie est un critère essentiel pour cette mission. La personne devra être en capacité de mener à bien des projets de R&D en autonomie technique et tactique. Il devra être capable de faire des choix techniques et de prendre des décisions pour répondre aux découvertes et difficultés rencontrées lors de ses travaux exploratoires • Un réelle aptitude à communiquer des concepts techniques à des non-experts, notamment pour expliquer les résultats des projets R&D aux autres membres de l'équipe et aux parties prenantes. • Une capacité à travailler efficacement en équipe, avec parfois des échanges interdisciplinaire (journalistes, documentalistes, etc.).

CDI
Freelance

Offre d'emploi
IT Application Support

NOOEH
Publiée le
Confluence
Java
JIRA

1 an
10k-70k €
Luxembourg

En tant que Technicien Support Applicatif, vous rejoindrez une équipe dynamique et passionnée par les technologies au sein d'un établissement de santé de renom au Luxembourg. Au quotidien, vous serez l'un des piliers du support informatique, en assurant la maintenance, la performance et la documentation des applications métiers. Vos missions principales : Support Applicatif : Devenez le premier point de contact des utilisateurs pour résoudre leurs problèmes informatiques. Maintenance Applicative : Contribuez à la maintenance corrective et évolutive des applications, en veillant à leur performance, stabilité et sécurité. Tests de Performance et de Charge : Évaluez la capacité des applications à répondre à la charge de travail attendue et proposez des solutions d'optimisation. Coordination et Communication : Assurez la liaison entre les différents acteurs (internes, externes) pour une résolution efficace des problèmes. Documentation Technique : Créez et mettez à jour la documentation technique des applications pour faciliter leur prise en main. Vos atouts : Diplôme universitaire en informatique (BAC +3 minimum) Expérience d'au moins 5 ans en tant que Technicien Support Applicatif Maîtrise des langages : SQL, PL/SQL, XML, JSON, Python, Java, PHP, Powershell Connaissance des environnements : Windows, Linux (Ubuntu), Kubernetes, Docker Expertise des bases de données : Oracle 19, MySQL/MariaDB Expérience avec les plateformes : Azure DevOps, Office 365 Outils de gestion de projets : Jira, Confluence Business Intelligence : Apache Superset, Power BI Excellente maîtrise du français et de l'anglais à l'oral et à l'écrit Maîtrise du luxembourgeois et/ou d'une autre langue : un plus Connaissance du domaine de la santé : un plus Ce poste vous offre l'opportunité de : Mettre à profit vos compétences techniques et votre expertise dans un environnement dynamique et stimulant. Travailler en équipe avec des professionnels passionnés par les technologies et le monde de la santé. Évoluer professionnellement dans un cadre valorisant et propice à l'apprentissage. Si vous êtes un Technicien Support Applicatif talentueux, motivé par les défis et à la recherche d'un nouveau challenge passionnant, n'attendez plus et postulez dès aujourd'hui !

CDI
Freelance

Offre d'emploi
Consultant Sauvegarde Networker H/F

STORM GROUP
Publiée le
ITIL
Python

2 ans
50k-60k €
Île-de-France, France

1 - Contexte et objectifs de la prestation Au sein d’une équipe qui gère l'ensemble des activités autour de la sauvegarde de données, pour un périmètre banque d'investissement et de détail, en France et à l'étranger. Le Béneficiaire souhaite améliorer la qualité de la gestion de ses systèmes informatiques. Dans ce cadre la Prestation consiste à contribuer à/au(x) : - La maintenance opérationnelle des infrastructures de backup NETWORKER et des composants associés. - La conception, le design et la mise en oeuvre de nouvelles architectures de sauvegarde - Suivi des processus ITIL notamment sur la gestion des changements définie en interne - Suivi des incidents en vue d'une correction rapide - L'amélioration continue des infrastructures de sauvegarde et de l'expertise utilisateur (KPI) - Développement des contrôles "qualité" en vue de fiabiliser et d'industrialiser le socle - L'amélioration de la supervision et du monitoring des infrastructures afin de détecter de futurs incidents - Développement ou évolution des outils existants d'administration, de monitoring et de reporting des plateformes de sauvegarde 2 - Livrables attendus Les livrables attendus sont : - Tenue des documentations d'exploitation, schémas d'architecture - Scripts et programmes développés dans le cadre des projets et du récurrent - Document de synthèse sur la mise en œuvre des projets - Documents de suivi des mises à jour des procédures et documents technique lies à l'activité de support - Documents de synthèse sur les incidents de production

Freelance

Mission freelance
data engineer python spark anglais - 5 ans d'EXP

Innov and Co
Publiée le
Apache Spark
Kubernetes
PySpark

12 mois
100-600 €
Issy-les-Moulineaux, Île-de-France

Dans un secteur logistique en plein essor, en prise direct avec les problématiques actuelles (smart cities, environnement, géopolitique), et en pleine transformation technologique (véhicules autonomes, digitalisation, mobilité), DPD Group vous offre l’opportunité d’avoir un impact direct sur la gestion de colis du futur. Vous intégrerez l’équipe Analytics et contribuerez principalement au développement de la plateforme DataHub. Actuellement petite équipe autonome de 4 personnes engagées à 100% sur ce projet, l’équipe Analytics est intégrée au sein de l’équipe Data Science & Analytics de la DPSIN. L’objectif de la plateforme interne DataHub est de stocker les données historiques des activités et permettre leur requêtage efficient. Les données sont issues de et exploitées par divers acteurs – Marketing, Sales, OPS, IT, Data Science, … en central ou depuis les Business Units – pour des usages tels que la récupération simple de données historiques, la BI ou le machine learning. L’environnement de travail est international, avec des contacts quotidiens avec des équipes en France et à l’étranger. Les demandes d’utilisations de la plateforme croissent fortement. La plateforme DataHub en quelques faits : § 2023 : Forte croissance des usages de la plateforme (BI, requêtage ad-hoc, requêtages fréquents standardisés et hautes performances d’applications), enrichissement de l’offre de services (Data Viz avec Superset) § 2024 : Monter en charge sur les usages (plus de use cases !), étendre l’offre de services et améliorer l’expérience utilisateurs (Data Viz, Data lineage), optimiser l’usage de notre stack technique (Spark, Airflow...), généraliser l’usage de tables d’Apache Iceberg, poursuivre l’industrialisation des pipelines de traitement de données… o Les cas d’usages aujourd’hui en production : § 9 rapports BI servis § Requêtages fréquents (standardisés et tunés, avec ou sans API) par des applications :: 4 cas d’usages § Requêtage ad-hoc croissant des data scientists et équipes IT (+1000 requêtes / mois) o Volumes de données sous gestion active : § ~10 To de données § +15 flux de données § Flux de donné majeur : +100 millions d’évènements / jour d’évènements sur les colis Environnement technique : § Data Lake basé sur des technologies open source. § Architecture Cloud Kubernetes (Outscale Cloud) § Stockage des données sur du S3 (Outscale OOS) sous forme de fichiers Parquet (simples ou tables Iceberg) ou json § Query engine pour se connecter (S3 et autres DB) et requêter (SQL standard) les données : Dremio § Maintenance de tables Iceberg et requêtage de données avec Apache Spark § Automatisation des opérations et traitements de données en python avec Apache Airflow § Data Viz orientée métier avec Apache Superset § Data Viz orientée Monitoring IT avec Grafana § APIs développées en Python et Java § Gestion de version et CI/CD avec GIT Lab Organisation : § Equipe Produit de 4 personnes § Mode de travail Agile Scrum

Freelance

Mission freelance
Développeur Python

KatchMe Consulting
Publiée le
Azure
Cloud
Python

6 mois
100-600 €
La Défense, Île-de-France

En tant que développeur & intégrateur, vous aller collaborer étroitement avec les développeurs pour comprendre leurs besoins et proposer des solutions innovantes. Vos responsabilités incluront le développement de code de haute qualité pour une librairie Python spécifique aux énergies renouvelables, la mise en œuvre de processus d'assurance qualité, ainsi que le soutien au packaging, au versioning et au déploiement de la librairie. Vous participerez également à la conception et à l'implémentation d'une API d'exécution des algorithmes dans un environnement Cloud.

Freelance

Mission freelance
Data Engineer

ICSIS
Publiée le
BigQuery
PL/SQL
Python

3 ans
440-510 €
Lille, Hauts-de-France

La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists/Analysts sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - GCP, BigQuery, SQL, Python, Stambia, Shell, Data Studio, Power BI, Qlikview,... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais

CDI
Freelance

Offre d'emploi
Data Analyst H/F

CAPEST conseils
Publiée le
Apache Airflow
Python
Snowflake

12 mois
10k-185k €
Paris, France

Afin de renforcer l’équipe DATA, nous recherchons un.e Data Analyst. Le Data Analyst travaille en étroite collaboration avec les équipes métiers et techniques, afin de leur fournir les données nécessaires à une prise de décision éclairée. Vos missions : · Répondre à des questions métiers, de façon ad hoc via des requêtes et extractions ou bien de façon plus pérenne via la création de tableaux de bord · Concevoir, développer, tester et maintenir les pipelines de transformations des données · Construire les transformations qui nous permettront de partager des données de qualité aux différentes directions/filiales · Collaborer avec les métiers afin de concevoir de nouveaux reportings · Collaborer avec l’équipe Data Science afin de les aider à la conception de leurs modules d’intelligence artificielle. · Être force de proposition pour l’amélioration continue des processus existants · Vous connaissez le SQL et vous êtes capable d’écrire des requêtes complexes. · Vous avez une appétence pour l’analyse de données et de Data Visualization · Vous avez un fort esprit analytique · Vous êtes clair et concis et vous savez vulgariser vos connaissances auprès du métier Bonus : · Vous connaissez Snowflake · Vous avez eu une expérience avec Airflow · Vous savez utiliser Git · Vous avez de l’expérience avec des langages de programmation comme Python

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous