
JSer.info
Searches and retrieves JavaScript ecosystem data, trends, and library information from the JSer.info database to help developers stay current with JS developments.
Provides access to JavaScript ecosystem data, trends, and library statistics from JSer.info for developers tracking the JavaScript landscape
What it does
- Search JavaScript libraries and frameworks by name, tags, or description
- Look up product information from URLs
- Browse JSer.info weekly posts and archives
- Find items within specific date ranges
- Retrieve related links and metadata for JS projects
Best for
About JSer.info
JSer.info is a community-built MCP server published by jser that provides AI assistants with tools and capabilities via the Model Context Protocol. Explore JavaScript ecosystem data, trends, and library stats with JSer.info—track the latest in JS and Node JS for moder It is categorized under search web.
How to install
You can install JSer.info in your AI client of choice. Use the install panel on this page to get one-click setup for Cursor, Claude Desktop, VS Code, and other MCP-compatible clients. This server runs locally on your machine via the stdio transport.
License
JSer.info is released under the MIT license. This is a permissive open-source license, meaning you can freely use, modify, and distribute the software.
@jser/mcp
An MCP Server for JSer.info
- Introduction - Model Context Protocol
- modelcontextprotocol/typescript-sdk: The official Typescript SDK for Model Context Protocol servers and clients
Usage
VSCodeでの使い方
VSCodeでは、次のいずれかの方法でJSer.info MCPを利用できます:
リモートサーバーを利用する場合(推奨)
以下のいずれかの方法でリモートサーバーを追加できます:
方法1: コマンドラインから追加
code --add-mcp '{"name":"jser-info-mcp","url":"https://mcp.jser.info/mcp"}'
方法2: settings.jsonに追加
VSCodeのsettings.jsonに以下の設定を追加します:
"mcp": {
"servers": {
"jser-info-mcp": {
"url": "https://mcp.jser.info/mcp"
}
}
}
これで自動的にJSer.info MCPが利用可能になります。
ローカルサーバーを利用する場合
-
ターミナルで@jser/mcpを起動する
npx @jser/mcp -
VSCodeのコマンドパレットを開き(
Cmd+Shift+PまたはCtrl+Shift+P)、「MCP: Add Server...」を実行 -
サーバーURLに
http://localhost:14561/mcpを入力して接続
利用できる機能
接続後、以下のツールが利用可能になります:
jser_search_items: タイトル、説明、URL、タグでアイテムを検索(複数キーワードでOR検索可能)jser_search_posts: タイトル、説明、URL、タグで投稿を検索jser_product_name: URLからプロダクト名を取得jser_week: 番号からJSer週を取得jser_weeks: 全てのJSer週を取得jser_weeks_between: 二つの日付の間のJSer週を取得jser_week_with_item_url: アイテムを含むJSer週を取得jser_item_with_item_url: URLからJSerアイテムを取得
利用できるtool
JSer.info MCPでは、次の tool が利用できます。
jser_search_items
タイトル、説明、URL、タグでアイテムを検索します。スペースで区切られた複数のキーワードをOR検索します。
パラメータ:
query: 検索クエリ(1-100文字)。スペースで区切られた複数のキーワードをOR検索limit: 返す結果の最大数(1-100、デフォルト: 10)offset: 結果のオフセット(0以上、デフォルト: 0)order: ソート順序desc: 新しい順(デフォルト)asc: 古い順
返り値:
- アイテムの配列
title: アイテムのタイトルurl: アイテムのURLcontent: アイテムの説明文tags: タグの配列date: 登録日時relatedLinks: 関連リンクの配列
jser_search_posts
タイトル、説明、URL、タグで投稿を検索します。
パラメータ:
query: 検索クエリ(1-100文字)limit: 返す結果の最大数(1-100、デフォルト: 10)offset: 結果のオフセット(0以上、デフォルト: 0)sort: ソート順relevance: 関連度順(デフォルト)date: 日付順
order: ソート順序desc: 新しい順/関連度高順(デフォルト)asc: 古い順/関連度低順
返り値:
- 投稿の配列
title: 投稿のタイトルurl: 投稿のURLcontent: 投稿の内容tags: タグの配列date: 投稿日時
jser_product_name
URLからプロダクト名を取得します。
パラメータ:
url: 製品のURL(必須)
返り値:
- 製品情報のオブジェクト
name: プロダクト名url: 製品のURLreleaseNoteProbability: リリースノートである確率releaseNoteVersion: リリースノートのバージョン情報(該当する場合)releaseNoteURL: リリースノートのURL(該当する場合)
jser_week
番号からJSer週を取得します。
パラメータ:
number: JSer週の番号(必須)
返り値:
- JSer週のオブジェクト
number: JSer週の番号startDate: 開始日endDate: 終了日items: その週のアイテムリストposts: その週の投稿リスト
jser_weeks
全てのJSer週を取得します。
返り値:
- JSer週オブジェクトの配列
number: JSer週の番号startDate: 開始日endDate: 終了日items: その週のアイテムリストposts: その週の投稿リスト
jser_weeks_between
指定した期間のJSer週を取得します。
パラメータ:
beginDate: 期間の開始日(必須)endDate: 期間の終了日(必須)
返り値:
- JSer週オブジェクトの配列
number: JSer週の番号startDate: 開始日endDate: 終了日items: その週のアイテムリストposts: その週の投稿リストitemsCount: アイテム数postsCount: 投稿数
jser_week_with_item_url
指定したURLのアイテムを含むJSer週を取得します。
パラメータ:
item_url: アイテムのURL(必須)
返り値:
- JSer週のオブジェクト
number: JSer週の番号startDate: 開始日endDate: 終了日items: その週のアイテムリストposts: その週の投稿リスト
jser_item_with_item_url
指定したURLのアイテムを取得します。
パラメータ:
url: アイテムのURL(必須)
返り値:
- アイテムのオブジェクト
title: タイトルurl: URLdescription: 説明tags: タグの配列date: 日付relatedLinks: 関連リンクの配列
Source
データの取得は@jser/data-fetcherを利用する
- データ取得の感覚は最後に実行してから1分経過したら再取得する
- つまり1分間はキャッシュのデータを利用する
検索にはDataSetを利用する
Item: 紹介するサイトのこと
1 Item = 1 サイト
すべてのデータのoriginとなるものです
サイトごとにタイトル、URL、登録した日付、タグなどが含まれています
API: https://jser.info/source-data/items.json
Post: JSer.infoに投稿される記事のこと
1 Post = 1 記事
それぞれの記事のタイトル、URL、タグ、日付などが含まれます
@jser/statを使うことでItemとPostを元に指定したサイトが紹介された記事を検索できます
API: https://jser.info/posts.json
Post Item: JSer.infoに投稿された記事中のItem(サイト)のこと
1 Post Item = 1 サイト
基本的にはItemと同じだが、Post ItemはPost(記事)におけるカテゴリ(ヘッドラインなど)が含まれます
カテゴリの種類は @jser/post-parser を参照してください
Itemを元に投稿時に編集している場合などもあるため、ItemとPost Itemは必ずしも一致するわけではありません
制限: カテゴリ区別が付けられたのは2014-08-03からであるため、それ以前のデータは含まれない
Postにはすべての記事は含まれるがPost Itemのデータは含まれていない
API: https://jser.info/public/data/post-details.json
プロダクト名の検索にはJSer.info Product Name APIを利用する
$ curl "https://jser-product-name.deno.dev/?url=https://deno.com/blog/v1.19"
{"name":"Deno","url":"https://deno.com","releaseNoteProbability":0.7619047619047619,"releaseNoteVersion":"v1.19"}
$ curl "https://jser-product-name.deno.dev/?url=https://example.com"
null # status code is 400
データ抽出のロジックは @jser/stat を利用する。
### findItemsBetween(beginDate, endDate): JSerItem[]
return JSerItems between two dates
### getJSerWeeks(): JSerWeek[]
return all JSerWeeks
### findJSerWeeksBetween(beginDate, endDate): JSerWeek[]
return JSerWeeks between two dates
### findJSerWeek(number): JSerWeek
number start with 1.
return JSerWeek at the number.
### findWeekWithItem(itemObject): JSerWeek
return JSerWeek contain the itemObject.
### findItemWithURL(URL): JSerItem
return JSerItem match the `URL`.
Changelog
See Releases page.
Running tests
Install devDependencies and Run pnpm test:
pnpm test
Contributing
Pull requests and stars are always welcome.
For bugs and feature requests, please create an issue.
- Fork it!
- Create your feature branch:
git checkout -b my-new-feature - Commit your changes:
git commit -am 'Add some feature' - Push to the branch:
git push origin my-new-feature - Submit a pull request :D
Author
License
MIT © azu
Alternatives
Related Skills
Browse all skillsOfficial Google SEO guide covering search optimization, best practices, Search Console, crawling, indexing, and improving website search visibility based on official Google documentation
Create user-centered, accessible interface copy (microcopy) for digital products including buttons, labels, error messages, notifications, forms, onboarding, empty states, success messages, and help text. Use when writing or editing any text that appears in apps, websites, or software interfaces, designing conversational flows, establishing voice and tone guidelines, auditing product content for consistency and usability, reviewing UI strings, or improving existing interface copy. Applies UX writing best practices based on four quality standards — purposeful, concise, conversational, and clear. Includes accessibility guidelines, research-backed benchmarks (sentence length, comprehension rates, reading levels), expanded error patterns, tone adaptation frameworks, and comprehensive reference materials.
Research a topic from the last 30 days on Reddit + X + Web, become an expert, and write copy-paste-ready prompts for the user's target tool.
Automate web browser interactions using natural language via CLI commands. Use when the user asks to browse websites, navigate web pages, extract data from websites, take screenshots, fill forms, click buttons, or interact with web applications. Triggers include "browse", "navigate to", "go to website", "extract data from webpage", "screenshot", "web scraping", "fill out form", "click on", "search for on the web". When taking actions be as specific as possible.
Search Engine Optimization specialist for content strategy, technical SEO, keyword research, and ranking improvements. Use when optimizing website content, improving search rankings, conducting keyword analysis, or implementing SEO best practices. Expert in on-page SEO, meta tags, schema markup, and Core Web Vitals.
Use this skill for requests related to web research; it provides a structured approach to conducting comprehensive web research