Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 200 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Développeur StreamServe / OpenText Exstream H/F

LeHibou
Publiée le
Back-end
Développement

6 mois
100-750 €
Liège, Belgique

Notre client dans le secteur Conseil et audit recherche un Développeur StreamServe / OpenText Exstream H/F Descriptif de la mission : Notre client est à la recherche d'un consultant StreamServe pour la mission suivante : Le projet consiste dans la migration streamserve d’ancienne génération V4 vers une nouvelle plateforme. L’objectif est de réécrire les courriers dans la nouvelle plateforme et dans la version la plus récente. On recherche ici des personnes qui connaissent bien l’outil, des concepteur éditiques, il s’agit donc de profil développeurs. Idéalement nous sommes à la recherche de 2 personnes (une sur Liège et une sur Frameries) avec 2 à 3j de TT en fonction des besoins du consultant. Compétences / Qualités indispensables : StreamServe Compétences / Qualités qui seraient un + : /

Freelance

Mission freelance
Ingénieur data expérimenté (H/F)

Espace Freelance
Publiée le
AWS Cloud
Databricks
Google Cloud Platform

121 mois
100-550 €
Villeneuve-d'Ascq, Hauts-de-France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Ingénieur data expérimenté (H/F) Le client recherche un profil expérimenté ayant déjà travaillé avec Airflow et Databricks pour la partie data engineering ainsi que Tableau pour la partie visualisation. Vos principales missions : Migration : connecter les sources de données vers AWS S3 Réalisation de dashboards avec Tableau Travail sur la qualité des données avec Databricks Création de flux de données automatisés avec Airflow

Freelance
CDI

Offre d'emploi
Cloud DevOps Sénior

skiils
Publiée le
Ansible
Bash
Big Data

20 mois
55k-120k €
Paris, France

Le département Data IA (DaIA) est en charge de mettre à disposition des métiers un socle technologique transverse permettant de mettre en production et industrialiser les cas d’usage Data et IA et donner accès aux meilleures solutions d’IA Générative. Pour cela, nous recherchons un DevOps qualifié pour nous aider à la mise en place, la gestion et l'amélioration continue de nos pipelines d'intégration continue/déploiement continu (CI/CD) ainsi que de l'infrastructure cloud Responsabilités : • Industrialiser les pipelines CI/CD pour automatiser les déploiements logiciels. • Gérer et maintenir l'infrastructure cloud en assurant la disponibilité, la sécurité et la performance. • Collaborer avec les équipes de développement pour intégrer les bonnes pratiques DevOps dans le cycle de développement logiciel. • Mettre en place et maintenir les outils de surveillance, de journalisation et de gestion des erreurs. • Identifier les goulots d'étranglement dans les processus de développement et proposer des solutions d'amélioration continue. • Assurer une veille technologique constante pour rester à jour sur les tendances et les meilleures pratiques en matière de DevOps.

CDI

Offre d'emploi
Chef de projet DATA

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Databricks

48k-62k €
Paris, France

Tu corresponds au/à la Chef de Projet DATA que nous recherchons si tu possèdes une expérience sur les sujets suivants : - 3-5 ans d’expérience sur du pilotage de projet Data dans le Cloud - Maîtrise de l’animation et du pilotage d’équipes sur des projets BI en méthodologie agile et cycle en V. - Gestion de plusieurs projets en parallèle et reporting consolidé dans le cadre d’une gestion de portefeuille projet. - Maîtrise des indicateurs coût / délai / périmètre sur des projets en modalité forfaitaire et assistance technique - Gestion des risques et des remontées d’alertes. - Une certification de gestion de projet et sur le domaine Data d’un des Cloud Providers est un plus. Ton quotidien chez Komeet sera rythmé par : - Le pilotage de tes équipes projet - L’animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec l’architecte. - L’animation de la comitologie projet en tant qu’interlocuteur privilégié de l’ensemble des parties prenantes (client, partenaire, équipe, management). - La participation à la veille de Komeet Technologies.

Freelance

Mission freelance
Ingénieur Cloud & DevSecOps

CyberTee
Publiée le
Ansible
Azure
Cloud

12 mois
100-650 €
Paris, France

Pour l'un de nos clients grand compte situé en Ile-de-France, dans le cadre d'une mission de longue durée permettant du télétravail, nous recherchons un Ingénieur Cloud & DevSecOps senior . Ses missions : déployer et migrer solutions Industrialiser et automatiser (CI/CD) Sécurité dans les déploiements (tests de code source) Aide à la définition d'architectures Cloud complexes avec un haut niveau de disponibilité et de sécurité Réaliser des mises en production Mise en œuvre de la sécurité opérationnelle Animation d'ateliers techniques Profil recherché : Vision Infrastructure as a Code » et CI/CD Bon niveau d'anglais Approches micro-services et containers Compétences techniques souhaitées Google Cloud Platform et/ou Microsoft Azure (Iaas, PaaS), Packer, Docker, Ansible, Kubernetes et CI/CD (Jenkins, GitLab, ...)

CDI
Freelance

Offre d'emploi
Administrateur infrastructure/AIOPS

OCSI
Publiée le
Azure
Google Cloud Platform
Linux

1 an
30k-40k €
Orléans, Centre-Val de Loire

Vous aurez pour missions: D'assurer l'évangélisation de l'équipe technique sur les concepts de l'IAOPS et ses avantages. Installation et supervision de l'infrastructure de l'IAOPS. Connaissance approfondie des problématiques de production afin de mettre en place une solution de supervision adaptée. Compétences en gestion de projet (orienté PMO) pour coordonner les différentes étapes de mise en place. Connaissance des produits AGIRC/PROMETHEUS et Graphana pour l'aspect technique. Intégration de l'IA dans les processus de supervision

Freelance
CDI

Offre d'emploi
DataOps

K-Lagan
Publiée le
Google Cloud Platform
Terraform

1 an
10k-48k €
Niort, Nouvelle-Aquitaine

Chez K-LAGAN & Kereon, nous parions sur vous ! 🚀 🔊 Vous êtes à la recherche d'un projet stable et durable ? Vous cherchez à vous épanouir professionnellement jour après jour ? N'hésitez pas à rejoindre notre équipe ! Vous êtes intéressé ? Alors, je vous laisse l’opportunité d’en lire plus... 🔍 Nous sommes à la recherche d'un(e) DataOps , qualifié(e) et motivé(e) pour rejoindre nos équipes et travailler chez un de nos clients du secteur assurances, basé en Nouvelle-Aquitaine, Niort. 💻 Technologies : DevOps, CI/CD, Terraform, GCP. 😉 Conditions : 📝 CDI, ASAP. 📍 Niort, Nouvelle-Aquitaine (France). 💰 Rémunération et conditions intéressantes, selon profil. 🚀 Projet et missions au sein d'une équipe et d'une société international en évolution ! 🎓 Formations personnalisées et suivies de carrières. 💻 Télétravail (mi-temps) 2-3 jours possible, selon intégration et projet client. 👌 Nous offrons : 🤝Contrat à durée indéterminée. 🤝Teambuilding. 🤝Rtt. 🤝Événements festifs organisés par l'entreprise (repas d'été, repas de Noël, journée de solidarité, BBQ, cafés technologiques …). 🤝Suivi régulier. 🤝Formation (technologie, langues, cours de formation, certifications...). Chez K-LAGAN & Kereon, l'égalité des chances fait partie de nos valeurs. Cela vous semble intéressant ? Postulez ! 📩 GROWING UP WITH YOU 🦾🤖🦿

Freelance

Mission freelance
Data engineer PYTHON / GCP

LK TECHNOLOGY
Publiée le
Google Cloud Platform
Python

6 mois
100-450 €
Lille, Hauts-de-France

Nous recherchons un Data engineer pour une mission chez notre client qui active dans le secteur du retail : Le projet est divisé en 2 modules techniques : une API qui fournit une décision de contrôle à tous les utilisateurs du système informatique (WMS), basée sur notre algorithme, un ensemble de pipelines de données alimentés à partir de jeux de données BigQuery, alimentant un magasin de fonctionnalités. Ce feature store est ensuite utilisé par notre API et pour entraîner notre modèle prédictif. Le prochain collaborateur aura pour mission de développer et maintenir ces deux modules. Responsabilités : Travailler avec l'équipe de développement pour concevoir et mettre en œuvre des solutions de données modernes et évolutives en utilisant une gamme de nouvelles technologies émergentes. Travailler avec des techniques Agile et DevOps ainsi que des approches d'implémentation dans la livraison. Concevoir et documenter des modèles de données qui soutiennent les produits d'IA. Orchestrer les pipelines de données. Gérer et être responsable de la qualité des données. Concevoir et documenter des API qui soutiennent les produits d'IA. Travailler en étroite collaboration avec les scientifiques des données, les ingénieurs en ML et les équipes DevOps/SRE.

Freelance
CDI

Offre d'emploi
AI/Data Science Engineer 5 jours/semaine Paris

CAPEST conseils
Publiée le
Google Cloud Platform
Google Colab
Jupyter Notebook

3 mois
10k-181k €
Paris, France

Nous recherchons un Freelance “Data Science/AI Engineer” pour faire partie de notre équipe et avoir un impact direct sur notre produit et le monde de la finance durable. Responsabilités : Travailler avec l’équipe tech pour intégrer des solutions d’intelligence artificielle dans les systèmes existants. Veille technologique sur l’IA générative et les plateformes de l’écosystème. Idéation, création et tests de nouveaux modèle d’IA en rapport avec nos produits ESG. Reportez directement à notre CTO. Missions: Une première mission de 2/3 semaine pour apprendre à se connaître et valider le fit. Des missions plus périodiques. 5 jours / mois. Exigences Connaissance pratique de l’anglais. C’est notre langue de travail. Vous êtes le candidat idéal si vous Avez une expérience et une expertise dans le domaine de l’IA (3 ans et +), NLP, LLMs, Prompt engineering. Possédez des bases solides en Python et êtes familier avec les outils tels que Jupyter, Colab. Etes familier avec le concept de RAG (Retrieval-Augmented Generation). Avez de l’expérience dans l’application de NLP à l’ingestion de documents. Êtes désireux d’apprendre et d’expérimenter de nouvelles technologies et outils. Avez une passion pour la résolution de problèmes et un esprit curieux. Pouvez communiquer efficacement des concepts complexes à des publics divers. Aimez travailler en collaboration dans un environnement dynamique de startup. Points bonus si vous Avez de l’expérience avec la plateforme Google Cloud AI. Avez un portfolio présentant vos projets de science des données. Veuillez soumettre votre CV, lettre de motivation et tout autre lien pertinent. Nous sommes impatients de vous lire ! 1 entretien CTO 1 case study

Freelance

Mission freelance
Data Engineer GCP Scala Spark

DATSUP
Publiée le
Apache Spark
Google Cloud Platform
Scala

12 mois
100-600 €
Île-de-France, France

Principales responsabilités : - Collecte de données provenant de sources externes - Exploitation des capacités du Datalake (GCP) - Implémentation de la chaîne de traitement - Développement en conformité avec les normes architecturales établies - Élaboration et documentation des user stories - Création de scripts de déploiement - Priorisation de la résolution des anomalies - Contribution à la mise en place de la chaîne de livraison continue - Automatisation des tests fonctionnels - Encadrement et supervision des travaux des ingénieurs de données de l'équipe Environnement technique : GCP, Spark, Kafka, Scala

Freelance
CDI

Offre d'emploi
Consultant(e) Cloud Security - Risk Manager

AMD Blue
Publiée le
Cybersécurité
EBIOS RM
Google Cloud Platform

3 ans
60k-75k €
Paris, France

Contexte de la mission : Notre client a mis en place en 2020 une Cloud Platform Engineering afin de construire des fondations solides pour ses divers services digitaux. La plateforme cloud est transverse à l’ensemble des domaines et pays du groupe. Elle est constituée d’équipes centrées sur l’Expérience du Développeur, la mise à disposition de solutions techniques pour accélérer le développement et la stabilité/scalabilité de nos applications, les Réseaux, l’Observabilité, le FinOps. Ses objectifs principaux sont de rationaliser le catalogue de produits techniques référencés au sein du groupe et de fournir des services “clé en main” pour les équipes applicatives, qui pourront ainsi se concentrer sur le développement de features à valeur ajoutée. Le fait d’avoir moins d’outils va permettre de mettre plus de monde sur chacun et d’approfondir l’usage de ceux-ci. Il sera aussi plus simple de basculer d’équipe en équipe grâce à des compétences communes. Les missions sont : · Définir la stratégie d’analyse de risques de nos composants d’infrastructures · Accompagner les Security Engineers du domaine dans la réalisation d’analyse de risque basé sur Ebios RM (définition de la démarche incluant les livrables et les ateliers nécessaires, définition des templates d’analyses de risque, définition des plans de remédiations) · Proposer une solution de définition d’une risk heat map du domaine de la plateforme cloud basé sur les remontées des analyses de risques ainsi que des audits et test d’intrusion · Définir la stratégie DRPs des composants d’infrastructures (définir les étapes de réalisation d’un DRP global, définir une roadmap d’implémentation de cette stratégie, définir les templates de DRP et de test DRP) · Animer la planification trimestrielle du domaine afin d’identifier l’ensemble des actions de remédiations à charger par chacune des équipes · Construire et jouer un exercice de gestion de crise du domaine · Animez la définition et la communication des politiques de sécurité; · Proposer et animer un processus de gestion des incidents de sécurité; · Animer le suivie des actions de sécurité · Portez la sensibilisation sécurité, risque et conformité au sein de votre périmètre, et favorisez les bonnes pratiques au sein du collectif sécurité de votre BU;

Freelance
CDI

Offre d'emploi
Tech Lead MLOPS (H/F)

SCALIAN
Publiée le
Apache Kafka
AWS Cloud
Data science

12 mois
70k-80k €
Paris, France

• Mettre en place l’outillage Datascience et MLOPS et identifier les patterns et normes pour un usage par 40 caisses régionales • Évaluer et adopter de nouvelles technologies et méthodologies pour améliorer les processus MLOps et l'efficacité de l'équipe • Diriger l'élaboration et la mise en œuvre des pipelines / solutions MLOps pour l'entraînement, le déploiement et la surveillance des modèles ML • Superviser et encadrer une équipe technique, en fournissant une orientation technique, en fixant des objectifs et en assurant la montée en compétence des équipes internes • Participer à l'exploration continue (étude d'opportunité, cadrage) et aider à estimer l'effort et la valeur délivrée par les choix de designs éligibles pour favoriser la priorisation par le Product Owner et le Pôle Utilisateur (évolutivité, testabilité, déployabilité...) • Collaborer avec les parties prenantes internes pour comprendre les besoins métier et fournir des solutions ML efficaces et évolutives • Décliner le cadre d’Architecture d’Entreprise(processus, normes, patterns …) et contribuer à son évolution • Faciliter la prise de décision de manière collaborative sur la meilleure architecture (conformité, sécurité, risques...), avec un juste équilibre entre le respect de la cible d'entreprise et la réponse pragmatique au besoin • Maitrise les objectifs visés par le cadre d'Architecture d’Entreprise et décrit des solutions qui s'y conforment et sont implémentables sous forme incrémentale dans les sprints • Suivre et facilite la visibilité de la conformité des solutions de son périmètre par rapport à la stratégie d'entreprise • Responsable de la documentation produit(s) en veillant à sa pertinence, fiabilité et sa cohérence avec les cadres de référence de l'architecture (processus, guides, patterns...).

Freelance

Mission freelance
Data Engineer

Enterprise Digital Resources Ltd
Publiée le
CI/CD
Docker
FastAPI

7 mois
100-480 €
Hauts-de-France, France

Dans le cadre de la plateforme de chaîne d’approvisionnement numérique du client, nous sommes responsables d’un service d’apprentissage automatique en production dans 6 BU pour l’instant. L’objectif de ce produit est d’optimiser les contrôles de réception des commandes en ciblant les colis / palettes à auditer à l’entrée des sites logistiques. Le projet est divisé en 2 modules techniques : une API qui délivre une décision de contrôle, basée sur notre algorithme, à tous les consommateurs du système informatique (WMS), un ensemble de pipelines de données provenant de jeux de données BigQuery, alimentant un magasin de fonctionnalités. Ce magasin de fonctionnalités est ensuite utilisé par notre API et pour entraîner notre modèle prédictif. Nous recherchons un/une Data Engineer pour développer et maintenir ces deux modules. Responsabilités : En tant qu’ingénieur de données, vos responsabilités sont les suivantes : ● Travailler avec l’équipe de développement pour concevoir et mettre en œuvre des solutions de données modernes et évolutives en utilisant une gamme de nouvelles technologies émergentes. ● Travailler avec des techniques Agile et DevOps et des approches de mise en œuvre dans la livraison ● Concevoir et documenter des modèles de données qui soutiennent les produits IA ● Orchestrez des pipelines de données ● Gérer et être responsable de la qualité des données ● Concevoir et documenter l’API qui prend en charge les produits IA ● Travailler en étroite collaboration avec les data scientists, les ingénieurs ML, DevOps/SRE

Freelance

Mission freelance
Data Engineer

Coriom Conseil
Publiée le
API
CI/CD
Docker

12 mois
100-500 €
Nord, France

API Python Data Pipeline DBT Documentation Compétences techniques Python - Expert - Impératif DBT - Confirmé - Impératif Github - Confirmé - Impératif Terraform - Confirmé - Souhaitable Anglais Professionnel (Impératif) The aim of this product is to optimise order reception checks by targeting the parcels/pallets to be audited at the logistics sites's entrance. The project is divided into 2 technical modules: - an API that delivers a control decision, based on our algorithm, to all consumers from ADEO IT system (WMS), - a set of data pipelines sourced from BigQuery datasets, supplying a feature store. This feature store is then used by our API and to train our predictive model. We are looking for a Data Engineer to develop and maintain these two modules. Responsibilities : As a data Engineer, your responsibilities are the following : ● Work with the dev team to design and implement modern, scalable data solutions using a range of new and emerging technologies. ● Work with Agile and DevOps techniques and implementation approaches in the delivery ● Design and document data models that support AI products ● Orchestrate data pipelines ● Manage & responsible of data quality ● Design and document API that supports AI products ● Work closely with data scientists, ML engineer, DevOps/SRE Qualifications : ● Experience working with GCP ● Experience in Python development ● Experience in API development. Good knowledge of FastAPI is required. ● Experience in Docker. ● Experience in data pipeline orchestration. Good knowledge of DBT. ● Experience in CI/CD. Knowledge of Github & Github actions is required. ● Fluency in english is required

Freelance

Mission freelance
Développeur Fullstack (FH)

Taleo Capital
Publiée le
.NET CORE
.NET Framework
Angular

1 an
500-650 €
Paris, France

Contexte Le projet de notre client amorcé il y a 3 ans, constitue un pilier majeur de l’institution. Basé sur une architecture WebApi en C# et .NET 6, ainsi qu'un FrontEnd en Angular 14, c’est une initiative ambitieuse qui nécessite une expertise pointue et un engagement sur le long terme. L'équipe actuelle se compose de 5 développeurs de différents niveaux et de 5 analystes métier, tous contribuant à la réussite continue du projet, qui prévoit de s'étendre sur plusieurs années supplémentaires. Nous recherchons un développeur FullStack WEB possédant une solide expérience dans le développement web, un esprit d'équipe et une capacité d'adaptation éprouvée. Le candidat idéal devra avoir au moins 8 ans d'expérience dans le développement web pour maintenir un équilibre optimal au sein de l'équipe et contribuer pleinement au projet. En tant que membre de l'équipe "Web Applications and Sales Tools", le développeur sera impliqué dans toutes les phases du développement, y compris la conception de la base de données (SQL Server), le développement des services, et la conception et le développement des pages fonctionnelles du site (pricing, reporting, affichage et outils d’analyse des données financières)

Freelance

Mission freelance
SecOps

ESENCA (groupe Kali)
Publiée le
Ansible
Azure
Google Cloud Platform

3 mois
400-480 €
Lille, Hauts-de-France

En tant que SecOps, vous ferez partie des équipes IT qui ont pour mission de faire évoluer le modèle IT et bâtir les écosystèmes digitaux utiles et modulaires du groupe. En tant que SecOps DIT, vous intégrerez le domaine Hosting avec pour objectif de porter le développement du groupe en simplifiant la sécurité dans les services digitaux, mais également en proposant des solutions permettant de réduire la dette. Vous serez également en charge de traiter les incidents de sécurité, mais également de l'accompagnement des équipes Network, DevOps et Réseaux en apportant votre vision et votre expertise technique. Vos missions principales seront: - Mettre en place une solution permettant de réduire le nombre de faille de sécurité, - Participer à la construction de la roadmap des évolutions techniques en prenant en compte les contraintes et les opportunités, - Vous proposerez des solutions techniques en adéquation avec le besoin des équipes, - Vous participez au cadrage et à la rédaction des dossier d'architecture techniques, - Vous participez à l'industrialisation des opérations (prise en compte des incident rencontrés afin de continuellement améliorer la qualité de service), - Vous accompagnez la montée en compétences des équipes, - Vous participez au run transverse des solutions, - Vous participez au tests des solutions SOC Environnement technique: - Azure, GCP, Oracle Cloud, OVH - EDR - Proxy - Linux, Windows - Produits de monitoring - Astreintes

200 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous