Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 476 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Expert NoSQL (F/H)

NAVIGACOM
Publiée le
Big Data
CI/CD
Cloud

12 mois
100-900 €
Yvelines, France

Missions Pour l’un de nos clients du secteur bancaire, vous intervenez sur des missions à forte valeur ajoutée en tant qu’Expert NoSQL. avec Expertise Kubernetes et GitOps, vous serez responsable de plusieurs aspects cruciaux du projet Vos tâches seront les suivantes : Construction et packaging des nouvelles offres DATA dans un environnement Kubernetes. Automatisation, industrialisation et documentation des solutions. Intégration de solutions de monitoring, d'alerting et de restriction de droits. Assurer le RUN des solutions développées. Veille technologique sur les produits NOSQL avec réalisation de POC, tests de performances et comparaison de solutions. Adaptation des offres DATA existantes pour les intégrer dans l'environnement client. Intégration de solutions de monitoring, d'alerting et de restriction de droits dans les offres. Accompagnement des architectes en apportant une expertise sur les technologies NOSQL / S3. Intervention en assistance/expertise auprès des clients. Définition et documentation des patterns d'usage.

Freelance

Mission freelance
Data Engineer Informatica

VISIAN
Publiée le
Big Data
Databricks
Informatica

1 an
480-590 €
Paris, France

Bonjour, VISIAN est une société de conseil spécialisée autour de l'innovation, la conception produit et la data. Dans un marché où les enjeux de recrutement sont clés et où le nombre de freelances est en constante augmentation, Visian a créé une entité dédiée au recrutement de freelances experts du digital et d’IT: VASKA. Dans le cadre de ses projets clients, VISIAN recherche un/e Data Engineer. Contexte : Le candidat intégrera un pôle Data à la DSI et une équipe projet qui sera responsable de migrer des flux d'intégration de données de POWER Center vers Databricks. Missions : Le candidat sera responsable de migrer des flux ETL développés sur Informatica vers Databricks. Une connaissance d'informatica et AWS est très appréciée. Le candidat doit maitriser le langage SQL et Python et avoir une bonne culture Data des best practices en terme de nettoyage, de transformation et modélisation de données Une certification sur Databricks est également fortement appréciée. Si vous êtes à l’écoute du marché en ce moment, je vous invite à postuler en m’envoyant votre candidature. Bien à vous, Justine

Freelance

Mission freelance
Administrateurs SIEM/SOAR

DATACORP
Publiée le
Administration linux
Ansible
Bash

12 mois
100-450 €
Noisy-le-Grand, Île-de-France

Description de la mission Evolution dans un environnement international Design de Solutions - Conception et mise en place de SIEM Maintien en conditions opérationnelles et de sécurité des différentes solutions de sécurité Supervision et intervention sur les incidents de production Support aux équipes projets sur des points complexes relevant de votre domaine de compétence Mise en œuvre de solutions d’automatisation Application et développement des bonnes pratiques métier et de sécurité Amélioration continue des outils et des processus Compétences techniques et fonctionnelles Administration SIEM : Splunk, QRadar, MS Azure Sentinel Administration orchestration SOAR (Palo Alto, Splunk) Administration système Linux (Ubuntu, CentOS) Architecture technique et fonctionnelle Design de solutions Automatisation : Ansible, Docker, Terraform Supervision : Centreon, Zabbix Scripting : Python, Bash, html Solutions Backup/Restore Architecture technique Localisation 1 profil à Toulouse 1 profil à Paris / Noisy Le Grand

CDI
Freelance

Offre d'emploi
Fullstack Python SQL

Amontech
Publiée le
DevOps
Docker
Gitlab

365 jours
10k-52k €
Île-de-France, France

Principales activités et responsabilités : Analyser, concevoir, définir les architectures d'application, développer et déployer des applications robustes et évolutives. Optimiser les performances des applications et assurer la compatibilité multiplateforme. Garantir la sécurité et la fiabilité des applications en mettant en œuvre de bonnes pratiques de développement. Intégrer et consommer des APIs externes pour enrichir les applications et intégrer de nouvelles sources de données. Mettre en œuvre des extracteurs et des processus de collecte de données. Analyser, concevoir et mettre en œuvre les processus d'assurance qualité et de contrôle qualité des données. Identifier les modèles et les opportunités de factorisation, construire des modèles appropriés pour l'infrastructure et la collecte de données. Définir la conception d'application entre la logique et la base de données. Mettre en œuvre la logique de base de données (modèles de données, procédures, fonctions, vues) pour soutenir la logique de l'application. Optimiser les requêtes et les performances de la base de données en identifiant et en définissant les modèles de données, les index et la structure de la base de données. Définir les besoins en solutions et en exploitation des applications et contribuer à les mettre en œuvre. Concevoir, développer, maintenir et identifier des outils pour les pipelines CI/CD afin d'automatiser le déploiement et les tests. Travailler en étroite collaboration avec l'équipe des opérations pour gérer et optimiser les infrastructures cloud (Azure) ainsi que les environnements de conteneurs (Docker Swarm) qui soutiennent les applications. Mettre en œuvre des pratiques de surveillance et de journalisation pour garantir la disponibilité et les performances des applications. Collaborer, partager et intégrer les principes DevOps dans le processus de développement logiciel en tant que membre des équipes de développement. Documenter les applications et les processus.

Freelance

Mission freelance
Data Engineer Databricks / Python

VISIAN
Publiée le
Databricks
Informatica
Python

1 an
100-550 €
Paris, France

Data Engineer confirmé ayant une expérience de 3 à 5 ans sur des projets de tranformation de données dans un environnement cloud. Le candidat sera responsable de migrer des flux ETL développés sur Informatica vers Databricks. Une connaissance d'informatica et AWS est très appréciée. Le candidat doit maitriser le langage SQL et Python et avoir une bonne culture Data des best practices en terme de nettoyage, de transformation et modélisation de données Une certification sur Databricks est également fortement appréciée

Freelance

Mission freelance
Data Architect Databricks

VISIAN
Publiée le
AWS Cloud
Databricks
Python

1 an
100-600 €
Paris, France

Responsabilités: 1- Mise en place de la gestion de code avec Git (CI/CD): Développer et maintenir les pipelines CI/CD pour assurer le déploiement continu des développements Databricks. Collaborer avec les équipes de développement (reporting power bi et data science) pour intégrer les meilleures pratiques de gestion de code. 2-Définition et mise en place des bonnes pratiques en termes d'architecture: Concevoir et mettre en œuvre des architectures de données efficaces et évolutives sur la plateforme Databricks. Élaborer des normes et des directives pour garantir la cohérence et la qualité des solutions. 3-Coordination avec l'éditeur et les équipes du group One Data Team: Être le point de contact principal avec l'éditeur Databricks pour résoudre les problèmes techniques et obtenir un soutien. Collaborer avec les équipes internes pour comprendre les exigences métier et traduire celles-ci en solutions techniques efficaces. 4-Accompagnement de l'équipe dans la montée en compétence sur Databricks: Former et encadrer les membres de l'équipe sur l'utilisation optimale de Databricks, y compris les fonctionnalités avancées. Fournir un support technique et des conseils pour résoudre les défis rencontrés lors du développement et de la mise en production.

Freelance

Mission freelance
Architecte technique

Coriom Conseil
Publiée le
DevOps
Kubernetes
Python

12 mois
100-680 €
Nord, France

Kubernetes - Confirmé - Impératif Industrialisation - Confirmé - Impératif Devops - Confirmé - Important Exploitation - Confirmé - Important Anglais Professionnel (Impératif) DevOps Kubernetes H/F Dans le contexte de transformation digitale et pour poursuivre notre défi de réinventer notre utilité aux habitants du monde, notre challenge est de construire la plateforme mondiale de l’habitat. Missions : - Participer au développement de nouvelles fonctionnalités en cohérence avec les besoins utilisateurs. - Apporter des conseils et de l’expertise technique pour l’accompagnement et l’intégration des projets micro-services. - Être force de proposition pour optimiser la performance, la sécurité, la stabilité de la plateforme. - Assurer le support technique des composants déployés ainsi que le support aux utilisateurs. - Améliorer la stabilité de la plate-forme et effectuer la mise à niveau des composants techniques. Environnement : Système Kubernetes, principalement dans un environnement Cloud tel que Google Cloud Platform. (plus de 80 clusters) Développement principalement avec Terraform et Python Déploiement en continu via les technologies GitOps/Argocd et Github. Basé sur les technologies Traefik, Kubernetes Operator, OpenPolicyAgent, Datadog, ... Vous évoluerez dans un contexte Agile avec la possibilité de faire du pair-programming.

Freelance

Mission freelance
Python Développeur (EU nationalité requise)

Intuition IT Solutions Ltd.
Publiée le
CI/CD
Kubernetes
Python

7 mois
100-400 €
Luxembourg

Nous recherchons un développeur Python senior pour l'un de nos clients au Luxembourg. Les tâches/activités incluront : - Support quotidien - Activité de support de 2ème niveau - Point de contact unique avec l'utilisateur et, le cas échéant, avec d'autres équipes IT - Suivi et résolution des problèmes, - Hiérarchisation des priorités, - Analyse des causes profondes, - Investigation, y compris recherche de code, - Documentation - Résolution de bogues - Analyse des problèmes complexes, y compris le débogage le cas échéant, en collaboration avec l'utilisateur et d'autres équipes informatiques, o Proposition de solution, y compris l'estimation, o Résolution de problèmes complexes, o Supervision et orientation éventuelles de développeurs plus juniors au sein de l'équipe, o Tests, o Documentation, - Maintenance évolutive - Analyse commerciale si nécessaire, - Nettoyage périodique, - Conception de la solution, y compris l'estimation, - Résolution, - Test, - Documentation, - Gestion des versions - Gestion des branches (c.-à-d. correctifs et fusion), - Utilisation mais aussi configuration de l'environnement de construction, - Construction des versions, - Coordination avec d'autres équipes informatiques si nécessaire, - Documentation, - Tests - Tests de non-régression, - Tests préalables à la sortie des nouvelles fonctionnalités développées, - Documentation, - Améliorations continues - Remettre en question les processus existants dans le but d'atteindre une plus grande efficacité, - Automatisation des tâches répétitives, - Documentation des processus, - Formation/guidage de ressources plus juniors ou nouvelles. Le membre du personnel doit démontrer qu'il possède des connaissances dans les domaines suivants - l'analyse, la conception et le test de logiciels - Développement d'applications web, - Programmation de bases de données à l'aide de SQL, - les applications du secteur financier, - Bonne maîtrise de la langue anglaise, - Capacité à respecter des délais serrés, - Capacité à gérer des projets informatiques.

CDI

Offre d'emploi
Ingénieur Avant vente Data - Secteur Energie

SWING-ONE
Publiée le
Big Data
ETL (Extract-transform-load)
Machine Learning

10k-99k €
Île-de-France, France

Contexte du poste : Nous recherchons un ingénieur Avant vente Data pour notre client situé dans le secteur Energie. Contexte de la mission : Tout d'abord, l'ingénieur doit disposer d'une connaissance très approfondie dans le domaine de la Data et être en mesure de pouvoir qualifier des besoins techniques et fonctionnels des partenaires de la société cliente. Ensuite, l'ingénieur doit être capable de défendre les solutions liés à la data proposé par la société cliente à ses partenaires. Enfin, l'ingénieur doit être le relais, mais également le coordinateur des experts techniques de la société cliente lié au data solutions pour répondre aux appels d'offres

Freelance

Mission freelance
Ingénieur Avant vente Data - Secteur Energie

SWING-ONE
Publiée le
Big Data
ETL (Extract-transform-load)
Machine Learning

1 an
100-700 €
Île-de-France, France

Contexte du poste : Nous recherchons un ingénieur Avant vente Data pour notre client situé dans le secteur Energie. Contexte de la mission : Tout d'abord, l'ingénieur doit disposer d'une connaissance très approfondie dans le domaine de la Data et être en mesure de pouvoir qualifier des besoins techniques et fonctionnels des partenaires de la société cliente. Ensuite, l'ingénieur doit être capable de défendre les solutions liés à la data proposé par la société cliente à ses partenaires. Enfin, l'ingénieur doit être le relais, mais également le coordinateur des experts techniques de la société cliente lié au data solutions pour répondre aux appels d'offres.

Freelance
CDI

Offre d'emploi
Expert Stockage et Sauvegarde (H/F)

CITECH
Publiée le
Cisco IOS
Python
Réseau de stockage SAN

6 mois
40k-69k €
Charenton-le-Pont, Île-de-France

CITECH recrute ! 👌 👍 Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Expert Stockage et Sauvegarde (H/F) 🚀 💰 Votre mission est pour un client reconnu dans le secteur bancaire, implanté dans de nombreuses villes en France, il a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. 💳 Vous serez garant du maintien en conditions opérationnelles des infrastructures de Stockage. 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Traiter des demandes et incidents 🔸 Apporter une expertise et un support aux clients des infrastructures 🔸 Participer aux projets d’évolution de ces infrastructures, notamment les migrations 🔸 Proposer et développer des outils / méthodes d'optimisation 🔸 Intervenir en production pour des actions à forte valeur ajoutée technique dans le cadre d'incidents, problèmes et changements 🔸 Améliorer le fonctionnement du SI, dans le respect du niveau de qualité et de coût attendu et en assurant une bonne maîtrise des risques 🔸 Réaliser des études d'opportunité en lien avec son domaine d'expertise technologique (analyse détaillée) et apporter sa connaissance des produits dans l'élaboration des projets associés

Freelance

Mission freelance
Data engineer

MOBILE TECH PEOPLE
Publiée le
Azure
Python
SQL

6 mois
100-430 €
Lille, Hauts-de-France

Nous sommes à la recherche d'un Data Engineer ayant au moins 4 ans d'expérience, et possédant des compétences en SSAS/AAS Tabular. La mobilité sur Lille est requise, avec une présence sur site de 3 jours par semaine. Dans le cadre de ce poste : Le candidat sera chargé de mettre en place et de maintenir la plateforme de données, en veillant à ce que les données soient accessibles aux différents départements avec le niveau de qualité requis. Il devra également garantir la sécurité et la scalabilité du système d'information, aligné sur les objectifs de l'entreprise et les exigences internes et externes. En termes de responsabilités : Il sera responsable du développement des compétences techniques et de l'autonomie de l'équipe de Data Engineers, de faciliter la collaboration, et de mettre en place et de garantir les bonnes pratiques de développement et de documentation (DevOps). Il devra également industrialiser les modèles statistiques ou de machine learning selon les besoins du Product Owner, tout en assurant le maintien de la qualité globale, de la performance et en restant à jour sur les outils technologiques liés aux données. Il sera également chargé de collecter, stocker et rendre accessible les données, de recueillir les exigences métier détaillées auprès du Product Owner, de travailler en étroite collaboration avec le Data Architect pour valider les solutions techniques conformes aux normes et processus établis, et de mettre en place l'automatisation des traitements de données. Le candidat devra réaliser des tests unitaires, d'intégration et procéder à la mise en production, en maintenant la qualité des données et en automatisant leur nettoyage conformément aux règles du Data Steward. Il sera également responsable de gérer le cycle de vie des données conformément aux règles établies, et de superviser la qualité technique, la gestion opérationnelle et la sécurité de l'accès aux données.

CDI

Offre d'emploi
Développeur(euse) Python (H/F)

CELAD
Publiée le
Python

32k-47k €
Rennes, Bretagne

Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Développeur(euse) Python pour intervenir chez un de nos clients. Vos principales missions : - Conception, développement, test & déploiement des applications basées sur une architecture en Microservices - Maintien & Amélioration des systèmes existants, en particulier du code legacy - Participation à la configuration d'environnements, à la gestion de version avec Git, et à l'automatisation de processus avec des scripts shell - Garantie de la qualité du code, la documentation appropriée et la résolution efficace des problèmes

Freelance
CDI
CDD

Offre d'emploi
Cloud DevOps

bdevit
Publiée le
Ansible
Apache Kafka
AWS Cloud

36 mois
50k-58k €
Île-de-France, France

Contexte: Le DataLab développe des pratiques MLOPS pour optimiser le cycle de vie des projets IA. Un premier volet a été adressé au niveau du versioning des modèles et l’industrialisation de l’IA en se basant sur un socle basé sur Kafka / Kubernetes. L’objectif de la mission est de packager des IA de contrôle et d’extraction d’informations dans les documents: - Se focaliser sur la phase DevOps en automatisant la pipeline d’apprentissage, le versioning et déploiement du modèle ; - Automatiser l'exécution du pipeline de ML afin de ré-entraîner les nouveaux modèles avec de nouvelles données ; - Configurer un système de livraison continue pour déployer fréquemment de nouvelles versions de l'intégralité du pipeline de ML (CI/CD). L’idée est de rendre les modèles de machine learning (ML) évolutifs et de les déployer en production aussi simples que possible, en laissant Kubernetes faire ce qu'il fait de mieux : - Déploiements faciles, reproductibles et portables sur une infrastructure diversifiée ; - Déploiement et gestion de microservices ; - Mise à l'échelle en fonction de la demande ; - Mise en place du socle DataOps – industrialisation des microservices IA ; - Former l’équipe sur les pratiques DevOps/DataOps ; - Participer sur les différents projets ; - Gérer l’exploitation du cluster Kubernetes et l’orchestration des ressources. Exigences Techniques: - Packaging & API : De fortes compétences CI/CD – Docker - API ; - Développement (Python): Python avancé ; - Architecture & Infrastructure: Définir l’architecture cible – Travailler avec le producteur informatique pour mettre en place l’infrastructure cible et participer au déploiement.

CDI

Offre d'emploi
DevOps Python, Kubernetes, Azure

AEROW
Publiée le
Azure
Azure DevOps Server
Azure DevOps Services

10k-71k €
Neuilly-sur-Seine, Île-de-France

Client secteur du conseil cherche DevOps compétences: Python (Expert) Kubernetes (Expert) Azure (Confirmé) Mission 1 an (renouvelable potentiellement) Au sein de l'équipe Intelligence Artificielle. Environnement challengeant, equipe dynamique. Très bonne communication nécessaire. Environnement de travail agréable, locaux exceptionnels. Début mission: mi-mai. Mission à temps plein. Télétravail: Possibilité d'avoir 1 ou 2 jours de télétravail dans la semaine. Prévoir plusieurs déplacement pour les entretiens avec le client (entretien classique + entretien techniques).

Freelance
CDI

Offre d'emploi
Développeur back Java

ICSIS
Publiée le
Angular
Apache Kafka
Google Cloud Platform

2 ans
30k-45k €
Lille, Hauts-de-France

La mission consiste à : - Contribuer à la définition des spécifications générales - Réaliser l’analyse technique et l’étude détaillée - Développer les modules (objets et composants logiciels) - Elaborer les jeux d’essai pour les tests unitaires d’intégration et effectuer les tests - Préparer les mises en production - Mission basée en métropole lilloise avec présence sur site client de 3j/semaine Compétences demandées : - 3 ans min. d’expérience en développement Java EE et environnement Cloud - Java (11+), SpringBoot, NoSQL... - API Rest / Kafka - Environnement Cloud (GCP) - Outils de CI/CD, culture devops - Pratique d'un langage front (Angular, Vue, React ...) un + - Maîtrise et pratique de l’Agile - Anglais un+

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous