Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
Ingénieur Système et Réseau
🚀 CITECH recrute ! 🚀 ✨ Vous souhaitez mettre vos compétences techniques au service d’un projet d’envergure dans un environnement à très haute disponibilité ? Alors cette mission est faite pour vous ! Nous recherchons un(e) Ingénieur Systèmes & Réseaux (H/F) pour renforcer l’équipe Infrastructure de l’un de nos clients majeurs dans le secteur de la billetterie en ligne. 🎟️ 🙌🔽 Vos missions seront les suivantes : 🔽🙌 🔸 Superviser et maintenir en condition opérationnelle des infrastructures critiques 🔸 Optimiser les performances serveurs pour absorber des connexions massives simultanées 🔸 Gérer la scalabilité et les files d’attente sur des systèmes à forte charge 🔸 Mettre en œuvre des actions préventives avant les pics d’affluence 🔸 Assurer un monitoring avancé et intervenir en cas de surcharge 🔸 Proposer des ajustements d’architecture, y compris en environnement cloud

Mission freelance
Dev Fullstack
Pour le besoin de mon client, je suis à la recherche d'un développeur expérimenté ( > 5 ans d’expériences) Connaissances de technologies requises : JAVA, VUEJS, ODS Connaissances de technologies optionnelles : Python, Jenkins, Sonar, Ansible .. ... .... ... ... ... .... .... .... ... .... ... ... .... .... .. ... .... ... ... ... .... .... .... ... .... ... ... .... .... .. ... .... ... ... ... .... .... .... ... .... ... ... .... .... .. ... .... ... ... ... .... .... .... ... .... ... ... .... ....

Mission freelance
Data Analyst / Lead Dataiku
Pour le compte d'un de nos clients bancaire / financier, nous sommes à la recherche d'un consultant Data Analyst ayant une expertise sur l'outil Dataiku. Le demandeur est une équipe transverse hébergeant des applications en Java du groupe. L'objectif est de mettre en place un datahub venant ingérer des données issues de ces applications, pour par la suite mettre en place une stratégie de reporting pertinente à destination du top management. L'attente principale sur ce poste est d'apporter une expertise sur l'outil Dataiku afin de mettre en place les flux avec cette outil, et de gérer l'administration et l'accès aux données. Les différents utilisateurs des applications peuvent être à l'étranger (Europe, Inde, places financières internationales). Une maitrise de l'anglais est obligatoire.

Offre d'emploi
Data Engineer AWS/Databricks
Missions principales : Conception d’outils Big Data : Contribution active à la conception, au développement et à l’amélioration d’outils de traitement de données massives, couvrant l’ensemble du cycle de vie des données : ingestion, traitement, analyse et restitution. Définition des besoins techniques : Collaboration étroite avec les utilisateurs de la plateforme Data pour comprendre les besoins métier et garantir un alignement optimal entre les solutions développées et les attentes fonctionnelles. Développement sur Databricks et AWS : Réalisation de développements avancés sur les plateformes Databricks et AWS, en utilisant notamment les technologies suivantes : Python, SQL, Spark et Airflow. Intégration des pratiques FinOps : Mise en œuvre de bonnes pratiques FinOps dans le développement afin d’optimiser les coûts, les performances et l’utilisation des ressources sur AWS. Utilisation d’outils tels que dbt , GitLab CI/CD , et autres solutions DevOps. Audit et accompagnement transverse : Réalisation d’audits techniques et de revues de code au sein des équipes, avec pour objectif de renforcer la maîtrise des enjeux techniques et de favoriser l’adoption de stratégies FinOps efficaces. Technologies et outils utilisés : Cloud & Big Data : AWS (S3, EC2, Lambda, Glue), Databricks, Spark Langages & Frameworks : Python, SQL, PySpark Orchestration & Automatisation : Airflow, GitLab CI/CD, dbt Suivi des coûts et performance : Outils FinOps intégrés à AWS Méthodologies de travail : Agile / Scrum, DevOps, FinOps

Mission freelance
Expert Dataiku / Data scientist - Anglais
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Data Scientist Spécialités technologiques : DATA Compétences Technologies et Outils Access dataIKU Python VBA MISSIONS La mission principale consiste à aider notre équipe à migrer les requêtes existantes relatives à la fiabilité des données depuis ACCESS/VBA vers un projet Dataiku, ainsi qu'à développer une interface utilisateur personnalisée. De plus, le consultant aidera l'équipe à se familiariser avec l'outil et apportera son expertise en matière de bonnes pratiques d'utilisation et de gouvernance de la plateforme. Projet/applications Dataiku pour la fiabilité des données commerciales (placement, comptabilité technique et processus de réclamation). Pour certaines migrations d'outils ACCESS actuellement sur un serveur informatique central (projet ATLAS), nous souhaitons passer d'ACCESS à Dataiku. Afin de mener à bien cette migration avant la fin de l'année, nous avons besoin d'un développeur expert de la plateforme Dataiku.
Mission freelance
Tech Lead Data Databricks AWS
Dans le cadre de l’évolution d’une plateforme data existante de niveau entreprise, nous recherchons un Tech Lead Data Engineer pour renforcer une équipe agile internationale. L’environnement est déjà en place – il s’agira de l’optimiser, l’industrialiser et l’étendre à de nouveaux cas d’usage analytiques 🎯 Vos missions principales : ✅ Faire évoluer la plateforme Data existante (Datawarehouse & pipelines) ✅ Implémenter & gérer le Unity Catalog sur Databricks ✅ Développer et maintenir des workflows complexes sous Airflow ✅ Structurer les bonnes pratiques d’ingénierie sur AWS ✅ Garantir la robustesse, la scalabilité et la gouvernance des données ✅ Collaborer avec des profils anglophones sur des projets critiques

Offre d'emploi
Architecte/ Data Engineer Dataiku
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Senior expert sur de l'architecture des Data Platforms sur du Dataiku/Kafka vos missions seront plus spécifiquement : - Maîtriser l'ensemble des techniques et technologies composant la Data Platform - Accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Data Platform - Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d’automatiser les pipelines d’ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, …) - Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données Contexte technique - Base de données de type Sql/NoSql - Kafka - Dataiku - Scripting Python/SQL/Java - Suite Elastic - Zabbix - Dynatrace Attendus Pour réaliser la mission, vous serez à même de : - Participer à la conception des solutions techniques et fonctionnelles - Gérer les données de l’entreprise (flux, traitement, stockage et leur cycle de vie) - Rédiger les documents fonctionnels et techniques, d’exploitation, en veillant au respect des normes existantes - Automatiser les installations des socles techniques - Assurer le support technique et fonctionnel, notamment analyse et résolution des incidents ou problèmes - Être en relation avec les équipes opérationnelles pour prise en compte des flux de données

Mission freelance
Développeur Big Data
Description de l'équipe Concevoir, développer et exploiter des produits, services et études innovants pour accompagner les acteurs internes et externes vers la transition écologique en contribuant à l’insertion des VE et des ENR. Activité principale Traitement de données, analyses statistiques Modélisation, création d’algorithmes, machine learning Production de rapports, d’études, de présentations techniques et restitutions aux commanditaires. Accompagnement des développeurs pour l’intégration du modèle dans une application informatique. Activité secondaire Suivi des évolutions méthodologiques en data science appliquée aux réseaux électriques Optimisation des modèles existants

Offre d'emploi
Business Analyst - Intelligence Artificielle
Vos missions principales seront les suivantes : Assistance à Maîtrise d’Ouvrage : Organiser et animer les ateliers de recueil des besoins auprès des utilisateurs métiers. Analyser, modéliser et proposer des optimisations des processus existants. Rédiger les documents de cadrage et de qualification : études de faisabilité, chiffrage, analyse des risques, impact, et planning. Formaliser les processus et besoins fonctionnels en vue de leur développement. Rédiger les spécifications fonctionnelles détaillées. Élaborer les plans de test et accompagner les phases de recette. Accompagner les utilisateurs dans l’adoption des nouveaux outils et usages. Pilotage opérationnel : Participer à la coordination et au suivi de l’avancement des projets. Assurer le pilotage des projets dont vous avez la charge, en collaboration avec les développeurs (équipe SmartAutomation), le DataLab, les équipes API et autres parties prenantes. Superviser et réaliser les recettes techniques. Piloter les recettes fonctionnelles jusqu’à la mise en production des solutions automatisées. Réaliser un reporting régulier à la cellule de coordination projet. Maintenance et évolutions : Contribuer à la bonne tenue opérationnelle des solutions déployées. Participer aux évolutions fonctionnelles et techniques du parc applicatif existant.

Mission freelance
Data Engineer (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer (H/F) à Lille, France. Contexte : Au sein de la direction DATA, nous sommes à la recherche d'un profil Data Engineer pour contribuer aux opérations de développement d'un projet DATA sous un environnement Google. Les missions attendues par le Data Engineer (H/F) : Sa mission sera de concevoir et développer les nouveaux flux de données (batch et temps réel) en étroite collaboration avec l'équipe actuelle de Data Engineer, Data Scientist et les équipes métiers. Ses principales missions seront les suivantes : - Analyser les besoins des métiers et les traduire en spécifications techniques (en contribuant également à l'élaboration des contrats d'interface et à la modélisation physique) - Développer des pipelines de données au sein de son périmètre - Veiller à la qualité et l'efficience des développements de l'équipe - Contribuer à la construction de la plateforme data et des services en remontant les besoins non couverts par le framework - Travailler en étroite collaboration avec l'équipe actuelle de Data Engineers, Data Scientists et les équipes métiers. Votre profil : - Expérience significative dans l'utilisation des systèmes cloud GCP et de ses services dans des projets Data. (Bigquery, GCS, Pubsub, Cloud function, Composer etc...) - Expérience avec les processus de transformation des données ETL / ELT - Maîtrise du Shell - Connaissance du langage Python et de l’ordonnanceur Airflow - Excellentes connaissances du SQL et des grands principes de modèle de données - Sensible aux méthodes de travail agiles. - Autonome, curieux et proactif - Compétences : SQL : Expert GCP Big Query : Confirmé GCS & google cloud function : Confirmé Pyhon/Shell : Confirmé
Offre d'emploi
Ingénieur Infrastructure - Support Cloud
Les missions du poste Dans le cadre d’une mission pour l’un de nos clients, nous recherchons un Ingénieur Infrastructure pour intervenir au sein de l’équipe Automation Lab , dans le domaine Support Cloud . Vous serez chargé de résoudre les problèmes techniques liés aux demandes clients bloquées dans les portails Cloud opérés par l’orchestrateur BPM ( IBM Business Automation ) et/ou IBM Cloud, en assurant un suivi efficace et une collaboration étroite avec les équipes techniques. Vos missions Suivre et traiter les demandes sur le portail IBM Cloud (Cloud dédié) Gérer les incidents clients et assurer l’accompagnement sur leur résolution Identifier et débloquer les demandes via l’orchestrateur Documenter les anomalies et rédiger les modes opératoires Contribuer à l’amélioration continue des processus Environnement technique Cloud & Orchestration : IBM Cloud, BPM ( IBM Business Automation ), Terraform, Schematics Automatisation : Ansible, Python, GitLab, Airflow Systèmes : Linux Red Hat, Windows Server, VMware ESX, Kubernetes, IKS Réseaux & Sécurité : TCP/IP, TLS/SSL, ICMP, LDAP, PKI, OpenSSL, GPG/PGP, X509 Bases de données & Middleware : MySQL, Java, SCCM Scripting : Shell, PowerShell
Offre d'emploi
Ingénieur Ops / DevSecOps
Description et livrables de la prestation Dans le cadre de la mise en place du programme AppSec assisté par l’IA, notre client est amené à faire évoluer les services et outils de développement et leur usage par les équipes de développement d’applications. Nous recherchons un profil senior Ops / DevSecOps pour intégrer l’équipe DevTools Factory qui fonctionne en mode Agile (Scrum Team avec des sprints de 3 semaines). Missions : ● Mise en place et mise à jour de l’infrastructure des services Gitlab Ultimate, Artifactory, Sonar au sein de l’équipe Devtools Factory: o Automatiser (IaC) l’installation de l’infrastructure des services dans le Cloud public (GCP principalement et AWS) o S’assurer de la scalabilité de l’infrastructure lié à l’usage du DevSecOps et de Gitlab DUO (Gitlab et ferme runners) o Réaliser des mises à jour régulières de ces outils pour bénéficier des nouvelles fonctionnalités et corrections o Mise en place d’outils/scripting pour l’exploitation et opérations o S’assurer de l’intégration dans un framework de monitoring/Alerting Dynatrace o Mettre à jour la documentation des installations automatisées o Actualiser le dossier d’exploitation pour le support L2/L3 ● Mise en place d’outils/scripting pour la mise à disposition des services, avec l’intégration DevSecOps et l’assistance de l’IA au développement o Mise à jour de l’outillage Gitlab pour la gestion des ressources (projets, groupes, users, RBAC, compliance framework, security policy at scale (MR, scanner, pipeline), Gitlab DUO, ...) o S’assurer de la gestion des secrets dans Vault et de leur rotation o Mise à disposition des services aux autres plateformes : Catalogue Service Now, Gitlab DUO, JIRA, CICD plateforme interne o Déploiement de solution zéro trust sur les outils au travers de zcaler/ztna ● Support : Faire le support de ces services o Intervention sur incidents o Mise en place de post mortem après tout problème important o Communiquer auprès des IS dès qu’il y a un problème important o Support des devops sur problématique projets o Support des security champions sur la gestion des vulnérabilités et remédiation dans l’outils Gitlab Livrables : ● Automatisation des infrastructures : IaC, documents (diagrammes, readme) ● Code d’outillage des services ● Support (documents, howto, eDEX)

Mission freelance
Ingénieur Observabilité confirmé – Environnement Cloud & DevOps
Bonjour, Pour le compte d’un client grand groupe, je recherche un ingénieur Observabilité pour une mission longue durée. Mission Renfort au sein de l’équipe Observability (Engineering Productivity) pour améliorer la qualité de service à travers les outils et pratiques d’observabilité (métriques, logs, traces, alertes, dashboards). Vous serez autonome sur plusieurs projets, dans un environnement international. Objectifs et livrables Maintien et tests des stacks Terraform Développement en Python ou Go (API, composants OpenTelemetry) Support technique et configuration avec les utilisateurs Déploiements sur différents périmètres Participation au RUN Formation et accompagnement des utilisateurs Automatisation des déploiements Mise en conformité avec les standards internes Définition des bonnes pratiques Audits de conformité Création de dashboards (Control Towers) Rédaction et mise à jour de la documentation Contexte agile, environnement international. Bon niveau d’anglais requis. Environnement technique -Datadog, OpenTelemetry, Splunk, Solarwinds, PagerDuty -Python ou Go -Kubernetes -Cloud : GCP ou AWS -Bonne compréhension des logs, métriques et traces Compétences requises -Expertise : Observabilité -Confirmé : Datadog, Python, Google Cloud, Kubernetes, AWS, Go, Terraform -Élémentaire : Splunk -Langue : Anglais courant Si votre profil correspond, merci de postuler avec un CV à jour et je vous reviendrais rapidement
Mission freelance
Expert windows / Devops
Nous recherchons pour notre client un expert windows / Devops Le Bénéficiaire souhaite améliorer la qualité de la gestion de ses systèmes informatiques. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes d'Expertise sys d'exploit. rés telecom. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : 1. L’Ingénierie système Microsoft : • Amélioration des outils et des processus d'installation et d'administration des serveurs Windows Server, • Assistance pour les entités de développement dans la définition de leurs architectures techniques, • Gestion des incidents, des problèmes et des évolutions des produits développés et maintenus par l'entité. 2. La gestion du cycle de vie des OS Windows Server et de l’usine de développement de ces derniers, à savoir : • Campagnes régulières de patching et de mise à jour des templates d’OS, pour des serveurs en environnement virtualisé VMware ou physiques (bare metal), • Maintien en conditions opérationnelle et de sécurité, et évolutions de l’usine de développement des templates d’OS, • Veille d’obsolescence, • Maintien à jour de la documentation associée. L’environnement est le suivant : • Cloud privé interne et offre de compute non-cloud, • Windows Server et dérivés, • Infrastructures SCCM, MDT, KMS • Langages : PowerShell, Python, • Pipelines Jenkins / Puppet 3. L’automatisation des tâches de déploiement et d’administration, en coordination avec les équipes en charge des infrastructures sous-jacentes (principalement Compute, Storage and Backup) et de la Sécurité : • Récolte des besoins fonctionnels en automatisation, traduction de ces besoins en spécifications techniques et validation avec les référents techniques, • Développement, test, livraison et support de processus automatisés, développement d’API (PowerShell, Python). 4. Participation régulière à la ligne de front pour le support à l'environnement de production et aux semaines d'astreinte (généralement entre une fois par mois et une fois tous les deux mois), pour répondre aux incidents ou pour des opérations planifiées. Environnement technique : • Microsoft Windows Server, KMS • PowerShell • Python • Active Directory • Jenkins • Github • Méthodologie SAFE • MECM (ex-SCCM), WSUS, MDT • Puppet (Ruby modules, global infrastructure) • Terraform • Architecture et solutions VMware Environnement anglophone.

Mission freelance
Devops Confirmé AWS
Vos missions Concevoir, déployer et maintenir des architectures cloud scalables, robustes et sécurisées sur AWS Automatiser les déploiements avec Terraform, CloudFormation ou CDK Gérer les pipelines CI/CD (GitLab CI, GitHub Actions, etc.) Participer à la mise en œuvre de pratiques FinOps, SRE et sécurité Collaborer avec les équipes de développement pour faciliter les mises en production Superviser et optimiser la performance des systèmes (CloudWatch, Prometheus, Grafana) Assurer le support niveau 2/3 sur les environnements cloud et DevOps Environnement technique Cloud : AWS (EC2, ECS, Lambda, RDS, S3, IAM, VPC...) IaC : Terraform, CloudFormation CI/CD : GitLab CI, GitHub Actions, Jenkins Containers : Docker, Kubernetes (EKS) Observabilité : CloudWatch, Prometheus, Grafana Scripting : Bash, Python Méthodo : Agile / Scrum / DevSecOps

Offre d'emploi
Data Engineer – AWS / Databricks
Missions principales : Conception d’outils Big Data : Contribution active à la conception, au développement et à l’amélioration d’outils de traitement de données massives, couvrant l’ensemble du cycle de vie des données : ingestion, traitement, analyse et restitution. Définition des besoins techniques : Collaboration étroite avec les utilisateurs de la plateforme Data pour comprendre les besoins métier et garantir un alignement optimal entre les solutions développées et les attentes fonctionnelles. Développement sur Databricks et AWS : Réalisation de développements avancés sur les plateformes Databricks et AWS, en utilisant notamment les technologies suivantes : Python, SQL, Spark et Airflow. Intégration des pratiques FinOps : Mise en œuvre de bonnes pratiques FinOps dans le développement afin d’optimiser les coûts, les performances et l’utilisation des ressources sur AWS. Utilisation d’outils tels que dbt , GitLab CI/CD , et autres solutions DevOps. Audit et accompagnement transverse : Réalisation d’audits techniques et de revues de code au sein des équipes, avec pour objectif de renforcer la maîtrise des enjeux techniques et de favoriser l’adoption de stratégies FinOps efficaces. Technologies et outils utilisés : Cloud & Big Data : AWS (S3, EC2, Lambda, Glue), Databricks, Spark Langages & Frameworks : Python, SQL, PySpark Orchestration & Automatisation : Airflow, GitLab CI/CD, dbt Suivi des coûts et performance : Outils FinOps intégrés à AWS Méthodologies de travail : Agile / Scrum, DevOps, FinOps
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.