mirror of
https://github.com/rust-lang/rust-analyzer.git
synced 2025-09-29 13:25:09 +00:00
world symbols
This commit is contained in:
parent
ed2ac17133
commit
133d001d82
4 changed files with 199 additions and 7 deletions
|
@ -8,5 +8,6 @@ log = "0.4.2"
|
||||||
failure = "0.1.2"
|
failure = "0.1.2"
|
||||||
parking_lot = "0.6.3"
|
parking_lot = "0.6.3"
|
||||||
once_cell = "0.1.4"
|
once_cell = "0.1.4"
|
||||||
|
fst = { git = "https://github.com/matklad/fst", branch = "subsequence"}
|
||||||
libsyntax2 = { path = "../libsyntax2" }
|
libsyntax2 = { path = "../libsyntax2" }
|
||||||
libeditor = { path = "../libeditor" }
|
libeditor = { path = "../libeditor" }
|
||||||
|
|
84
crates/libanalysis/idx.rs
Normal file
84
crates/libanalysis/idx.rs
Normal file
|
@ -0,0 +1,84 @@
|
||||||
|
use std::path::PathBuf;
|
||||||
|
|
||||||
|
use fst;
|
||||||
|
use fst::IntoStreamer;
|
||||||
|
use file;
|
||||||
|
|
||||||
|
use fall_tree::{TextRange, NodeType};
|
||||||
|
use indxr::{FileIndex, IndexableFileSet};
|
||||||
|
|
||||||
|
use editor::line_index::{LineCol, LineIndex};
|
||||||
|
use editor::fst_subseq::FstSubSeq;
|
||||||
|
use editor::file_symbols::process_symbols;
|
||||||
|
|
||||||
|
use syntax::{STRUCT_DEF, ENUM_DEF, TRAIT_DEF, TYPE_DEF};
|
||||||
|
|
||||||
|
|
||||||
|
pub struct SymbolIndex {
|
||||||
|
index: FileIndex<FileSymbols>,
|
||||||
|
}
|
||||||
|
|
||||||
|
impl SymbolIndex {
|
||||||
|
pub fn new(roots: Vec<PathBuf>) -> SymbolIndex {
|
||||||
|
let file_set = IndexableFileSet::new(roots, "rs");
|
||||||
|
let index = FileIndex::new(file_set, Box::new(|path| {
|
||||||
|
let text = file::get_text(path).ok()?;
|
||||||
|
Some(FileSymbols::new(text))
|
||||||
|
}));
|
||||||
|
SymbolIndex { index }
|
||||||
|
}
|
||||||
|
|
||||||
|
pub fn query(&self, query: &str) -> Vec<(PathBuf, Symbol)> {
|
||||||
|
let mut query = Query::new(query);
|
||||||
|
let mut result = Vec::new();
|
||||||
|
self.process_query(&query, &mut result);
|
||||||
|
if result.is_empty() && !query.all_symbols {
|
||||||
|
query.all_symbols = true;
|
||||||
|
self.process_query(&query, &mut result);
|
||||||
|
}
|
||||||
|
result
|
||||||
|
}
|
||||||
|
|
||||||
|
fn process_query(&self, query: &Query, acc: &mut Vec<(PathBuf, Symbol)>) {
|
||||||
|
self.index.process_files(&mut |file| {
|
||||||
|
query.process(&file.value, &mut |symbol| {
|
||||||
|
acc.push((file.path.clone(), symbol))
|
||||||
|
});
|
||||||
|
acc.len() > 512
|
||||||
|
});
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
struct Query {
|
||||||
|
query: String,
|
||||||
|
all_symbols: bool,
|
||||||
|
}
|
||||||
|
|
||||||
|
impl Query {
|
||||||
|
fn new(query: &str) -> Query {
|
||||||
|
let all_symbols = query.contains("#");
|
||||||
|
let query: String = query.chars()
|
||||||
|
.filter(|&c| c != '#')
|
||||||
|
.flat_map(char::to_lowercase)
|
||||||
|
.collect();
|
||||||
|
Query { query, all_symbols }
|
||||||
|
}
|
||||||
|
|
||||||
|
fn process(&self, file: &FileSymbols, acc: &mut FnMut(Symbol)) {
|
||||||
|
fn is_type(ty: NodeType) -> bool {
|
||||||
|
match ty {
|
||||||
|
STRUCT_DEF | ENUM_DEF | TRAIT_DEF| TYPE_DEF => true,
|
||||||
|
_ => false,
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
let a = FstSubSeq::new(&self.query);
|
||||||
|
for idx in file.map.search(a).into_stream().into_values() {
|
||||||
|
let idx = idx as usize;
|
||||||
|
let symbol = file.symbols[idx].clone();
|
||||||
|
if self.all_symbols || is_type(symbol.ty) {
|
||||||
|
acc(symbol)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
|
@ -6,6 +6,9 @@ extern crate log;
|
||||||
extern crate once_cell;
|
extern crate once_cell;
|
||||||
extern crate libsyntax2;
|
extern crate libsyntax2;
|
||||||
extern crate libeditor;
|
extern crate libeditor;
|
||||||
|
extern crate fst;
|
||||||
|
|
||||||
|
mod symbol_index;
|
||||||
|
|
||||||
use once_cell::sync::OnceCell;
|
use once_cell::sync::OnceCell;
|
||||||
|
|
||||||
|
@ -14,8 +17,11 @@ use std::{
|
||||||
collections::hash_map::HashMap,
|
collections::hash_map::HashMap,
|
||||||
path::{PathBuf, Path},
|
path::{PathBuf, Path},
|
||||||
};
|
};
|
||||||
|
|
||||||
use libsyntax2::ast;
|
use libsyntax2::ast;
|
||||||
use libeditor::LineIndex;
|
use libeditor::{LineIndex, FileSymbol};
|
||||||
|
|
||||||
|
use self::symbol_index::{FileSymbols, Query};
|
||||||
|
|
||||||
pub type Result<T> = ::std::result::Result<T, ::failure::Error>;
|
pub type Result<T> = ::std::result::Result<T, ::failure::Error>;
|
||||||
|
|
||||||
|
@ -70,12 +76,7 @@ impl WorldState {
|
||||||
impl World {
|
impl World {
|
||||||
pub fn file_syntax(&self, path: &Path) -> Result<ast::File> {
|
pub fn file_syntax(&self, path: &Path) -> Result<ast::File> {
|
||||||
let data = self.file_data(path)?;
|
let data = self.file_data(path)?;
|
||||||
let syntax = data.syntax
|
Ok(data.syntax(path).clone())
|
||||||
.get_or_init(|| {
|
|
||||||
trace!("parsing: {}", path.display());
|
|
||||||
ast::File::parse(&data.text)
|
|
||||||
}).clone();
|
|
||||||
Ok(syntax)
|
|
||||||
}
|
}
|
||||||
|
|
||||||
pub fn file_line_index(&self, path: &Path) -> Result<LineIndex> {
|
pub fn file_line_index(&self, path: &Path) -> Result<LineIndex> {
|
||||||
|
@ -88,6 +89,16 @@ impl World {
|
||||||
Ok(index.clone())
|
Ok(index.clone())
|
||||||
}
|
}
|
||||||
|
|
||||||
|
pub fn world_symbols(&self, query: &str, f: &mut FnMut(&Path, &FileSymbol) -> Search) {
|
||||||
|
let q = Query::new(query);
|
||||||
|
for (path, data) in self.data.file_map.iter() {
|
||||||
|
let symbols = data.symbols(path.as_path());
|
||||||
|
if q.process(symbols, &mut |symbol| f(path, symbol)) == Search::Break {
|
||||||
|
break;
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
fn file_data(&self, path: &Path) -> Result<Arc<FileData>> {
|
fn file_data(&self, path: &Path) -> Result<Arc<FileData>> {
|
||||||
match self.data.file_map.get(path) {
|
match self.data.file_map.get(path) {
|
||||||
Some(data) => Ok(data.clone()),
|
Some(data) => Ok(data.clone()),
|
||||||
|
@ -96,6 +107,12 @@ impl World {
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
|
#[derive(Debug, Clone, Copy, PartialEq, Eq)]
|
||||||
|
pub enum Search {
|
||||||
|
Continue,
|
||||||
|
Break,
|
||||||
|
}
|
||||||
|
|
||||||
|
|
||||||
#[derive(Default, Debug)]
|
#[derive(Default, Debug)]
|
||||||
struct WorldData {
|
struct WorldData {
|
||||||
|
@ -105,6 +122,7 @@ struct WorldData {
|
||||||
#[derive(Debug)]
|
#[derive(Debug)]
|
||||||
struct FileData {
|
struct FileData {
|
||||||
text: String,
|
text: String,
|
||||||
|
symbols: OnceCell<FileSymbols>,
|
||||||
syntax: OnceCell<ast::File>,
|
syntax: OnceCell<ast::File>,
|
||||||
lines: OnceCell<LineIndex>,
|
lines: OnceCell<LineIndex>,
|
||||||
}
|
}
|
||||||
|
@ -113,8 +131,23 @@ impl FileData {
|
||||||
fn new(text: String) -> FileData {
|
fn new(text: String) -> FileData {
|
||||||
FileData {
|
FileData {
|
||||||
text,
|
text,
|
||||||
|
symbols: OnceCell::new(),
|
||||||
syntax: OnceCell::new(),
|
syntax: OnceCell::new(),
|
||||||
lines: OnceCell::new(),
|
lines: OnceCell::new(),
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
|
fn syntax(&self, path: &Path) -> &ast::File {
|
||||||
|
self.syntax
|
||||||
|
.get_or_init(|| {
|
||||||
|
trace!("parsing: {}", path.display());
|
||||||
|
ast::File::parse(&self.text)
|
||||||
|
})
|
||||||
|
}
|
||||||
|
|
||||||
|
fn symbols(&self, path: &Path) -> &FileSymbols {
|
||||||
|
let syntax = self.syntax(path);
|
||||||
|
self.symbols
|
||||||
|
.get_or_init(|| FileSymbols::new(syntax))
|
||||||
|
}
|
||||||
}
|
}
|
||||||
|
|
74
crates/libanalysis/src/symbol_index.rs
Normal file
74
crates/libanalysis/src/symbol_index.rs
Normal file
|
@ -0,0 +1,74 @@
|
||||||
|
use libeditor::{FileSymbol, file_symbols};
|
||||||
|
use libsyntax2::{
|
||||||
|
ast,
|
||||||
|
SyntaxKind::{self, *},
|
||||||
|
};
|
||||||
|
use fst::{self, IntoStreamer};
|
||||||
|
|
||||||
|
use Search;
|
||||||
|
|
||||||
|
#[derive(Debug)]
|
||||||
|
pub(crate) struct FileSymbols {
|
||||||
|
symbols: Vec<FileSymbol>,
|
||||||
|
map: fst::Map,
|
||||||
|
}
|
||||||
|
|
||||||
|
impl FileSymbols {
|
||||||
|
pub(crate) fn new(file: &ast::File) -> FileSymbols {
|
||||||
|
let mut symbols = file_symbols(file)
|
||||||
|
.into_iter()
|
||||||
|
.map(|s| (s.name.as_str().to_lowercase(), s))
|
||||||
|
.collect::<Vec<_>>();
|
||||||
|
|
||||||
|
symbols.sort_by(|s1, s2| s1.0.cmp(&s2.0));
|
||||||
|
symbols.dedup_by(|s1, s2| s1.0 == s2.0);
|
||||||
|
let (names, symbols): (Vec<String>, Vec<FileSymbol>) =
|
||||||
|
symbols.into_iter().unzip();
|
||||||
|
|
||||||
|
let map = fst::Map::from_iter(
|
||||||
|
names.into_iter().zip(0u64..)
|
||||||
|
).unwrap();
|
||||||
|
FileSymbols { symbols, map }
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
pub(crate) struct Query {
|
||||||
|
query: String,
|
||||||
|
all_symbols: bool,
|
||||||
|
}
|
||||||
|
|
||||||
|
impl Query {
|
||||||
|
pub(crate) fn new(query: &str) -> Query {
|
||||||
|
let all_symbols = query.contains("#");
|
||||||
|
let query: String = query.chars()
|
||||||
|
.filter(|&c| c != '#')
|
||||||
|
.flat_map(char::to_lowercase)
|
||||||
|
.collect();
|
||||||
|
Query { query, all_symbols }
|
||||||
|
}
|
||||||
|
|
||||||
|
pub(crate) fn process(
|
||||||
|
&self,
|
||||||
|
file: &FileSymbols,
|
||||||
|
acc: &mut FnMut(&FileSymbol) -> Search,
|
||||||
|
) -> Search {
|
||||||
|
fn is_type(kind: SyntaxKind) -> bool {
|
||||||
|
match kind {
|
||||||
|
STRUCT | ENUM | TRAIT | TYPE_ITEM => true,
|
||||||
|
_ => false,
|
||||||
|
}
|
||||||
|
}
|
||||||
|
let automaton = fst::automaton::Subsequence::new(&self.query);
|
||||||
|
for idx in file.map.search(automaton).into_stream().into_values() {
|
||||||
|
let idx = idx as usize;
|
||||||
|
let symbol = &file.symbols[idx];
|
||||||
|
if self.all_symbols || is_type(symbol.kind) {
|
||||||
|
if acc(&symbol) == Search::Break {
|
||||||
|
return Search::Break;
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
Search::Continue
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
Loading…
Add table
Add a link
Reference in a new issue